2. Giriş
Yapay sinir ağları, insan beyni ile benzer şekilde çalışırlar. Deneyimler
yoluyla öğrenirler ve karmaşık hesaplamalara dayanan sorunlara çözüm
getirirler. Bir topluluk içinden belli bir yüzü nasıl seçeriz? Yada bir
uçağın iniş rotasını tahmin edip, hatalara nasıl daha oluşmadan
müdahale edebiliriz? İşte bu tip durumlarda, insan beyni “sinir
hücreleri” adı verilen birbirine bağlı bir grup işlem birimi kullanır. Her
sinir hücresi bağımsızdır. Her biri kendi işini görür, diğer birimlerle
eşzamanlı olarak çalışma ihtiyacı duymaz.
Öncelikle, karşılaşılan problemler tek ve basit bir algoritma kullanılarak
çözülebilecek türden değildir. Ayrıca kullanılan veriler de genellikle
pürüzsüz yada tam değildir. Örneğin, bir yüz tanıma uygulamasına veri
olarak girilen resimlerde kişilerin gözlüklü yada şapkalı resimleri yoksa,
veri kümesi eksik demektir.
3. Sinir Ağı:
Basit yada karmaşık birçok sinir ağı çeşidi vardır.
Çıktı
Girdi
Örneğin, katmanlardan oluşan ileri
beslemeli bir sinir ağında her katman
işlem birimleri, yani sinir
hücrelerinden oluşur. Katmanlar
aldıkları veriler üzerinde bağımsız
hesaplamalar yapar ve sonuçları bir
sonraki katmana iletir. Son katman ise
ağın çıktısını belirler.
4. Bir Yapay Sinir Hücresinin Çıktısı
Temel olarak, bir yapay sinir hücresinin iç aktivasyonu yada ham
çıktısı, girdilerin ağırlıklandırılmış toplamıdır. Ancak genelde son
değeri belirlemek için bir eşik fonksiyonu da kullanılır. Çıktı 1
ise, sinir hücresi harekete geçer (aktif hale gelir). Çıktı 0 ise, sinir
hücresi harekete geçmez.
5. Yapay Sinir Ağları Nasıl Öğrenir?
Yapay sinir hücrelerini birbirine bağlayan bağlantıların her birinin
sayısal bir ağırlığı vardır. Yapay sinir ağlarında bu ağırlıklar, uzun
dönemlik hafızaya karşılık gelir. Bir yapay sinir ağı bu ağırlıkların
tekrar tekrar ayarlanması sayesinde öğrenir.
6. Basit bir sinir hücresinin işleyişi şu
şekildedir
1-) Giriş sinyallerinin ağırlıklandırılmış toplamı alınır.
2-) Bir eşik değeri seçilir.
3-) Girdilerin toplamı eşik değeri ile karşılaştırılır. Bu değer eşik
değerinden küçükse çıktı -1, büyükse +1 olur. (ikinci durumda sinir
hücresi aktifleşmiştir.)
7. YAPAY SİNİR AĞI TÜRLERİ
Tek Katmanlı Sinir Ağları:
Tek katmanlı yapay sinir ağları sadece girdi ve çıktı
katmanlarından oluşur. En basit tek katmanlı sinir ağı modeli
perseptron’dur.
8. Perseptron
Perseptron modeli eğitilebilen
tek bir yapay sinir hücresinden
oluşur. Bu modelde
ağırlıklandırılmış girdiler
aktivasyon fonksiyonuna
uygulanır ve +1 yada -1
şeklinde bir çıktı alınır.
Perseptron’un amacı girdileri
sınıflandırmaktır. Bu demektir
ki n-boyutlu uzay şekildeki gibi
bir doğru yada düzlem ile iki
bölgeye ayrılır.
9. Çok Katmanlı Sinir Ağları
Çok katmanlı sinir ağları bir ya da daha fazla gizli katmanı olan ileri
beslemeli sinir ağlarıdır. Genelde bu ağ bir girdi katmanı, en az bir
gizli katman ve bir de çıkış katmanından oluşur.
Gizli katmanlara ihtiyaç duyulmasının sebebi girdi katmanlarından
gelen genellikle işlenmemiş sinyallerin özelliklerini belirlemek,
ağırlıklandırmak ve sonuçları çıktı katmanına yönlendirmektir.
11. Hopfield Ağı
Hopfield modeli, her biri birbirine bağlı sinir hücrelerinden oluşan bir
kümeyi içerir. Girdi ve çıktı hücreleri arasında fark gözetilmez.
Tür - Geri Besleme
Katmanlar - Tek Matris
Girdi Değeri
Türleri
- İkili (Binary)
Aktivasyon
Fonksiyonu
- İşaret
Öğrenme Yöntemi - Denetsiz
Öğrenme
Algoritması
- Delta Öğrenme Kuralı (EK-1)
- Benzetimli Tavlama (EK-1)
Kullanım Alanları - Desen İlişkileri
- Eniyileme (Optimizasyon) Problemleri
12. Kohonen Özellik Haritası
İnsan beyninin taklit edilmesi konusunda en kullanışlı sinir ağı türü olarak
kabul edilebilir. Bu türün kalbi, sinir hücrelerinin kendilerini belirli girdi
değerlerine göre düzenledikleri bir katman olan özellik haritasıdır.
Tür - Geri Besleme / İleri Besleme
Katmanlar - 1 Girdi Katmanı, 1 Harita Katmanı
Girdi Değeri
Türleri
- İkili (Binary), Reel (Real)
Aktivasyon
Fonksiyonu
- Sigmoid
Öğrenme Yöntemi - Denetsiz
Öğrenme
Algoritması
- Öz-Örgütleme
Kullanım Alanları - Desen Sınıflandırma
- Eniyileme (Optimizasyon) Problemleri
- Benzetim
13. BAZI ÖĞRENME ALGORİTMALARI
Bir sinir ağının öğrenme algoritması ‘denetli’ ya da ‘denetsiz’ olabilir.
İstenilen çıktısı önceden bilinen sinir ağına ‘denetli’ sinir ağı denir.
İleri Yayılım
İleri yayılım, denetli bir öğrenme algoritmasıdır ve bir sinir ağının
girdi katmanından çıktı katmanına doğru ‘bilgi akışı’nı açıklar.
14. Geri Yayılım
Geri yayılım, genellikle çok katmanlı perseptronların, ağın gizli
katmanlarına bağlı olan ağırlıklarını değiştirmek için kullanılan
denetli bir öğrenme algoritmasıdır.
Geri yayılım algoritması ağırlıkları ters yönde değiştirmek için
hesaplanmış hata değerleri kullanır. Bu hatayı elde etmek için
öncelikle 1 ileri yayılım safhası tamamlanmalıdır. İleri doğru
yayılırken, sinir hücreleri sigmoid fonksiyonu kullanılarak
etkinleştirilir
15. Öz-Örgütlenme
Öz-Örgütlenme, Kohonen özellik haritaları tarafından
kullanılan denetsiz bir öğrenme algoritmasıdır. Genel olarak
bilindiği gibi insan beyninin korteksi, her biri farklı işlevlere
sahip bölgelere ayrılmıştır. Sinir hücreleri gelen bilgilere göre
kendilerini gruplandırmıştır. Gelen bilgiler tek bir sinir hücresi
tarafından alınmazlar, çevre hücreler de bu bilgiyi bir şekilde
alır. Sonuç olarak bu örgütlenme bir çeşit harita yaratır.
Biyolojik sinir hücrelerinin bu yapısı yapay sinir ağlarında
‘Kohonen Özellik Haritası’ kullanılarak taklit edilebilir.
16. Görüldüğü üzere girdi katmanındaki her
sinir hücresi, haritadaki diğer bütün sinir
hücreleri ile bağlantılıdır. Sonuçta ortaya
çıkan ağırlık matrisi ağın girdi değerlerini
haritadaki sinir hücrelerine aktarmak için
kullanılır.
Ayrıca haritadaki bütün sinir hücreleri de
kendi aralarında bağlantılıdır. Bu
bağlantılar, aktivasyonun belirli bir
bölgesindeki sinir hücrelerini, en büyük
aktivasyona sahip sinir hücresi etrafında
toplanmaya teşvik eder.
17. SOM
SOM ağları, Teuvo Kohonen tarafından geliştirilmiştir. Genel
olarak sınıflandırma yapmak için kullanılmaktadır. Bu ağların en
temel özelliği olayları öğrenmek için bir öğretmene ihtiyaç
duymamasıdır (denetsiz). İleri besleme/geri besleme türünde
olabilir ve öğrenme algoritması olarak öz-örgütlenme (“Bazı
Öğrenme Algoritmaları” başlığı altında anlatılmıştır) yöntemini
kullanır. Bir girdi katmanı ve bir harita katmanı bulunur.
Öz-örgütlenme kullanan Kohonen Özellik Haritaları insan
beynini taklit edecek şekilde tasarlanmıştır. İnsan beyninde
öğrenme işlemi, sürekli tekrarlanan olaylar ve durumlar
karşısında beyine iletilen sinyallerin, korteksin belli bölgelerinde
yoğunlaşması sonucu bir hafıza oluşması şeklinde gerçekleşir.
18. Benzer şekilde SOM ağlarına gönderilen sinyaller (girdi değerleri)
bazı işlemlerden geçerek (iletilme-ağırlıklandırma) harita katmanına
ulaşır. Bu katman 1 yada 2 boyutlu olarak dizilmiş sinir
hücrelerinden oluşmaktadır.
Korteks görevini yapan bu katmana gönderilen girdiler, yapılan
matematiksel hesaplamalar sonucu bir bölgede yoğunlaşırlar. Bu
bölge; matematiksel işlemlerle belirlenen “kazanan sinir hücresi”dir.
Bu sinir hücresine ait bir alan mevcuttur. Aktivasyon alanı olarak
adlandırılan bu bölge öğrenme esnasında küçülür. Bu küçülme,
örneğin sınıflandırma işlemlerinde kesinliğin artmasına karşılık
gelir. Her sınıf için ayrı bir sinir hücresi etrafındaki toplanmalar,
sonuçta sınıflara ait bölgeler oluşturur. Bu şekilde de sınıflara ait
öğeler daha sonra kolaylıkla tespit edilir.
19.
20.
21. 1. adımda yapılan tüm işlemler tekrarlandı. Şekilde görüldüğü gibi 2 adım sonunda w5
değerleri, girdi vektöründeki değerlere yaklaştı. Aynı işlemlerin tekrarlanması bizi
istenilen değerlere ulaştıracaktır.
22. Şekilde, özellik haritasında kazanan sinir hücresine ait
aktivasyon alanının algoritma ilerledikçe küçülmesi
gösterilmiştir.
Aktivasyon Alanı
23. SOM Ağlarının Kullanım Alanları
SOM ağları, hem verilerin kümelenmesinde hem de
görselleştirilmesi açısından tercih edilmektedir. Bu ağlar çok
boyutlu bir veriyi iki boyutlu bir haritaya indirgemektedir. Her bir
küme için oluşturulan referans vektörleri bir araya geldiğinde bir
haritayı meydana getirmektedir.
24. SOM Modelinde Kümelemeyi
Etkileyen Faktörler
1. Çıkış katmanındaki nöron sayısı
2. Verilerin normalleştirilmesi
3. Referans vektörlerine ilk değer atanması
4. Uzaklık ölçüsü
5. Öğrenme katsayısı ve Komşuluk değişkeni