SlideShare a Scribd company logo
T.C. 
B˙ILEC˙IK ¸SEYH EDEBAL˙I 
ÜN˙IVERS˙ITES˙I 
MÜHEND˙ISL˙IK FAKÜLTES˙I 
B˙ILG˙ISAYAR MÜHEND˙ISL˙I 
˘G 
˙I 
Makine Ö˘grenme Yöntemlerinin Ara¸stırılması ve Uygulanması 
MUSTAFA KÖSTEK 
Proje 1 
12 Haziran 2014 
B˙ILEC˙IK
T.C. 
B˙ILEC˙IK ¸SEYH EDEBAL˙I 
ÜN˙IVERS˙ITES˙I 
MÜHEND˙ISL˙IK FAKÜLTES˙I 
B˙ILG˙ISAYAR MÜHEND˙ISL˙I 
˘G 
˙I 
Makine Ö˘grenme Yöntemlerinin Ara¸stırılması ve Uygulanması 
MUSTAFA KÖSTEK 
Proje 1 
12 Haziran 2014 
B˙ILEC˙IK
ÖZET 
Projenin Amacı 
Makine ö˘grenme yöntemleri adı altında çe¸sitli algoritmaların ö˘grenilmesi ve ilgili simü-lasyon 
programı aracılı˘gıyla uygun algoritmanın kullanılması ve sonuçların analiz edil-mesi. 
Projenin Kapsamı 
Makine ö˘grenme yöntemleri ve kullanım alanları ele almaktadır.Öncelikle konumuz da-hilindeki 
sınıflandırma yöntemlerine de˘ginilecek sonra ise ilgili simulator programı ara-cılı 
˘gıyla ilgili veriler i¸slenip,proje çıktısı analiz edilecektir. 
Sonuçlar 
Simulator ortamında makine ö˘grenme yöntemleri uygulanarak yöntemlerin verdi˘gi ce-vapların 
kıyaslanmı¸stır. 
ii
ABSTRACT 
Project Objective 
Under the name of machine learning methods to learn a variety of algorithms and related 
simulation programs through the use of appropriate algorithms and analysis of results. 
Scope of Project 
Machine learning methods and uses are discussed.First, the issues will be referred to 
the methods of classification within our respective related data is processed through the 
simulator program, project outcomes will be analyzed. 
Results 
Simulator environment by applying methods of machine learning methods in the compa-rison 
of the answers. 
iii
TE¸SEKKÜR 
Bu projenin ba¸sından sonuna kadar hazırlanmasında eme˘gi bulunan ve beni bu konuya 
yönlendiren saygıde˘ger hocam ve danı¸smanım Sayın Emre Dandil’e tüm katkılarından 
ve hiç eksiltmedi˘gi deste˘ginden dolayı te¸sekkür ederim. 
Mustafa Köstek 
12 Haziran 2014 
iv
˙Içindekiler 
ÖZET ii 
ABSTRACT iii 
TE¸SEKKÜR iv 
¸SEK˙IL L˙ISTES˙I 
viii 
TABLO L˙ISTES˙I 
ix 
1 G˙IR˙I 
¸S 1 
1.1 Makine ö˘grenmesi nedir? . . . . . . . . . . . . . . . . . . . . . . . . . . 1 
1.2 Makine ö˘grenmesi algoritmaları . . . . . . . . . . . . . . . . . . . . . . 1 
2 Ö˘grenmeli Ö˘grenme(Classification) 2 
2.1 Sınıflandırma geçerlili˘gi . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 
2.1.1 Rasgele örnekleme . . . . . . . . . . . . . . . . . . . . . . . . . 2 
2.1.2 K Parçalı . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 
2.1.3 Birini hariç tut . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 
2.2 E˘gri uydurma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 
2.3 Karar a˘gaçları . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 
2.4 Bayes teoremi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 
2.4.1 Naive bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 
2.4.2 Bayes a˘gları . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 
2.5 YSA(Yapay sinir a˘gları) . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 
2.5.1 Çok katmanlı algılayıcılar . . . . . . . . . . . . . . . . . . . . . 18 
2.5.2 Radyal tabanlı sinir a˘gları . . . . . . . . . . . . . . . . . . . . . . 18 
2.6 Destek vektör makinesi . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 
3 Ö˘grenmesiz Ö˘grenme(Clustering) 22 
3.1 Bölünmeli yöntemler . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 
3.1.1 k-kom¸su(k-means) . . . . . . . . . . . . . . . . . . . . . . . . . 24 
v
3.1.2 K-medoids demetleme yöntemi . . . . . . . . . . . . . . . . . . . 26 
3.2 Hiyerar¸sik yöntemler . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 
3.3 Yo˘gunluk tabanlı yöntemler . . . . . . . . . . . . . . . . . . . . . . . . . 29 
3.3.1 DBSCAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 
3.4 Model tabanlı demetleme yöntemleri . . . . . . . . . . . . . . . . . . . . 31 
3.4.1 EM algoritması . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 
4 ˙Ili¸skili(Associate) 33 
4.1 Appriori(ili¸skilendirme) . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 
5 Weka 35 
5.1 Ortam tanıtımı . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 
5.2 Veri alınması . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 
5.2.1 Kullanaca˘gımız yöntemler . . . . . . . . . . . . . . . . . . . . . 37 
5.3 Kullanılan yöntemlerin cevap açıklamaları . . . . . . . . . . . . . . . . . 39 
5.4 Görsel komponentlerle i¸sleme . . . . . . . . . . . . . . . . . . . . . . . 40 
5.4.1 Nereden yapılır? . . . . . . . . . . . . . . . . . . . . . . . . . . 40 
5.4.2 Yükleme(loader) Durumu . . . . . . . . . . . . . . . . . . . . . 41 
5.4.3 Kayıt ediciler . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 
5.4.4 Filtreler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 
5.4.5 Sınıflayıcılar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 
5.4.6 Demetleyiciler . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 
5.4.7 ˙Ili¸skilendirmeler . . . . . . . . . . . . . . . . . . . . . . . . . . 43 
5.4.8 Konvertör komponentler . . . . . . . . . . . . . . . . . . . . . . 43 
5.4.9 Görsel komponentler . . . . . . . . . . . . . . . . . . . . . . . . 43 
SONUÇLAR 47 
KAYNAKLAR 56 
ÖZGEÇM˙I 
¸S 57 
vi
¸ Sekil Listesi 
1 Bir do˘gru olarak temsil edilen veri kümesi . . . . . . . . . . . . . . . . . 3 
2 A˘gaç sınıflandırma yöntemi . . . . . . . . . . . . . . . . . . . . . . . . . 4 
3 Seri ¸sekilde yollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 
4 Ayrılmı¸s ¸sekildeki yollar . . . . . . . . . . . . . . . . . . . . . . . . . . 12 
5 Birle¸sen yollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 
6 Bayes a˘glarında söz konusu dört durum) . . . . . . . . . . . . . . . . . . 13 
7 Yapay sinir a˘g katmanları(perseptronlar) . . . . . . . . . . . . . . . . . . 14 
8 Yapay sinir a˘gının yakla¸sımı . . . . . . . . . . . . . . . . . . . . . . . . 15 
9 Ysa’nın ö˘grenme ¸sekli . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 
10 Ysa’nın aktivasyon fonksiyonu . . . . . . . . . . . . . . . . . . . . . . . 16 
11 Radyal tabanlı nöron . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 
12 Radyal tabanlı fonksiyon . . . . . . . . . . . . . . . . . . . . . . . . . . 19 
13 Radyal tabanlı a˘g topolojisi . . . . . . . . . . . . . . . . . . . . . . . . . 20 
14 Destek vektör makinesi ile ayırma . . . . . . . . . . . . . . . . . . . . . 20 
15 Lineer olarak ayrılamayan verilerin sınıflandırılması . . . . . . . . . . . . 22 
16 Waikato üniversitesi tarafından geli¸stirilmi¸s bir makine ö˘grenme simülas-yonu 
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 
17 Seçilen veri kümesinin öni¸slemeye tabi tutulması için gereken form ekranı 36 
18 Weka’da arff dosya formatının veri yapısı,veriler . . . . . . . . . . . . . . 37 
19 Weka’da veri ön i¸sleme ekranı . . . . . . . . . . . . . . . . . . . . . . . 38 
20 Sol alttaki çekbaksların seçilerek ilgili istatistiklerin gösterilmesi . . . . . 38 
21 Wekada ö˘grenmeli ö˘grenmede pratik yöntemleri . . . . . . . . . . . . . . 39 
22 Weka’da knowledge flow butonu . . . . . . . . . . . . . . . . . . . . . . 41 
23 Data Source sekmesi içeri˘gi . . . . . . . . . . . . . . . . . . . . . . . . . 41 
24 Data Sink sekmesi içeri˘gi . . . . . . . . . . . . . . . . . . . . . . . . . . 42 
25 Filtreler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 
26 Data Classifier sekmesi . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 
27 Data Clusterer sekmesi . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 
28 Data Associate sekmesi . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 
vii
29 Data Evaluation sekmesi . . . . . . . . . . . . . . . . . . . . . . . . . . 43 
30 Data Visualization sekmesi . . . . . . . . . . . . . . . . . . . . . . . . . 44 
31 J48 karar a˘gacından olu¸san bir sistem . . . . . . . . . . . . . . . . . . . . 45 
32 Bayes ö˘grenmesini ili¸skin sistem . . . . . . . . . . . . . . . . . . . . . . 45 
33 Ö˘grenmesiz ö˘grenme yöntemi olan k-means kullanımı . . . . . . . . . . 46 
34 ÇKA’lı bir simulasyon arayüzü . . . . . . . . . . . . . . . . . . . . . . . 46 
35 A˘gaç sınıflandırma metodu kullanarak verilerin i¸slenmesi . . . . . . . . . 47 
36 Wekada j48 a˘gaç metodu ile karar a˘gacının görüntülenmesi . . . . . . . . 48 
37 ˙Ilgili veri kümesinin karar a˘gacı . . . . . . . . . . . . . . . . . . . . . . 48 
38 Destek vektör makinesi(bu programdaki adıyla "smo") yöntemi kullanıla-rak 
veri i¸sleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 
39 Destek vektör makinesi için ilgili çekirde˘gin seçimi . . . . . . . . . . . . 49 
40 Lineer regression yöntemi kullanılarak ilgili verilerin do˘gruya uydurul-ması 
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 
41 Çok katmanlı algılayıcı yöntemi kullanılarak veri i¸sleme . . . . . . . . . 51 
42 ˙Iris’e ait olan verilerin mla ile i¸slenmesi . . . . . . . . . . . . . . . . . . 51 
43 Mla yönteminde katmanların gösterilmesi . . . . . . . . . . . . . . . . . 52 
44 Mla’da i¸slenen verinin algılayıcı katmanları . . . . . . . . . . . . . . . . 52 
45 Bayes yöntemi ile veri i¸slenmesi . . . . . . . . . . . . . . . . . . . . . . 53 
46 ˙Iris’e ait verilerin bayes ile i¸slenmesi . . . . . . . . . . . . . . . . . . . . 53 
47 Naive bayes yöntemi ile i¸slenmesi . . . . . . . . . . . . . . . . . . . . . 54 
48 ˙Iris’e ait verilerin naive bayes yöntemi ile i¸slenmesi . . . . . . . . . . . . 54 
49 Ö˘grenme yöntemi olan k-means ile sınıflandırma . . . . . . . . . . . . . 55 
50 Veri setinin büyüklü˘gü,sınıflandırılacak olan alanın kaç farklı tipi oldu˘gu,alanların 
sayısına göre sınıflandırma algoritmalarının ba¸sarımı . . . . . . . . . . . 55 
viii
Tablo Listesi 
1 m ve uzun,orta,kısa niceliklerinden olu¸san veriler . . . . . . . . . . . . . 4 
2 Örnek veri setimiz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 
3 Gün,havadurumu,sicaklik,nem,rüzgar ve oynama durumu ile ilgili veri 
kümesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 
4 Hava durumuna ili¸skin alanların ko¸sullu olasılıkları . . . . . . . . . . . . 9 
5 Ve kapısının giri¸s ve çıkı¸sları . . . . . . . . . . . . . . . . . . . . . . . . 14 
6 Nesne ve o nesneye ait olan nicelikler(ö˘grenmesiz ö˘grenme) . . . . . . . 25 
ix
1 G˙IR˙I 
¸S 
1.1 Makine ö˘grenmesi nedir? 
Çok büyük miktarlardaki verinin elle i¸slenmesi ve analizinin yapılması mümkün de˘gildir. 
Amaç geçmi¸steki verileri kullanarak gelecek için tahminlerde bulunmaktır. Bu problem-leri 
çözmek için Makine Ö˘grenmesi (machine learning) yöntemleri geli¸stirilmi¸stir. Ma-kine 
ö˘grenmesi yöntemleri, geçmi¸steki veriyi kullanarak yeni veri için en uygun modeli 
bulmaya çalı¸sır. Verinin incelenip, içerisinden i¸se yarayan bilginin çıkarılmasına [1]’e 
göre da Veri Madencili˘gi (data mining) adı verilir. 
1.2 Makine ö˘grenmesi algoritmaları 
Farklı uygulamaların, analizlerden farklı beklentileri olmaktadır.Makine ö˘grenmesi me-totlarını 
bu beklentilere göre sınıflandırmak mümkündür. 
Amaç: Bir niteli˘gin de˘gerini di˘ger nitelikleri kullanarak belirlemek... 
 verinin da˘gılımına göre bir model bulunur. bulunan model, ba¸sarımı belirlendikten 
sonra niteli˘gin gelecekteki ya da bilinmeyen de˘gerini tahmin etmek için kullanılır. 
 model ba¸sarımı: do˘gru sınıflandırılmı¸s sınama kümesi örneklerinin oranı 
Veri madencili˘gi uygulamasında: 
 ayrık nitelik de˘gerlerini tahmin etmek: sınıflandırma 
 sürekli nitelik de˘gerlerini tahmin etmek: öngörü 
Gözetimli (Supervised) sınıflandırma = sınıflandırma 
 Sınıfların sayısı ve hangi nesnenin hangi sınıfta oldu˘gu biliniyor. 
Gözetimsiz (Unsupervised) sınıflandırma = demetleme (clustering) 
 Hangi nesnenin hangi sınıfta oldu˘gu bilinmiyor. Genelde sınıf sayısı bilinmiyor. 
1
2 Ö˘grenmeli Ö˘grenme(Classification) 
2.1 Sınıflandırma geçerlili˘gi 
Veriye dayalı olarak e˘gitim yapılmasının temel amacı [12]’ya göre e˘gitilen sistemin ben-zer 
konuda hiç bilinmeyen bir örne˘ge mantıklı bir cevap üretebilmesidir. Eldeki sınırlı 
veri kullanılarak sistemin hem e˘gitilmesi hem de ba¸sarısının tarafsız bir ¸sekilde ölçülebil-mesi 
gerekmektedir. Bunun için çapraz geçerlik (cross validation) adıyla anılan yöntemler 
kullanılmalıdır. Çapraz Geçerlilik bu temel prensibe dayanarak önerilmi¸s birkaç geçer-lik 
yöntemi vardır. Ama hepsinde temel mantık aynıdır. Sistemin ba¸sarısını ölçebilmek 
için mevcut veri kümesi ikiye bölünür. Birisi e˘gitim için (train set) di˘geri de sistemin hiç 
görmedi˘gi olası örnekleri temsilen (test set) kullanılır. Sistem, seçilen e˘gitim algoritması 
ile e˘gitim kümesini ö˘grenir. E˘gitilen sistemin ba¸sarısı daha sonra test kümesi üzerinde 
hesaplanır. 
2.1.1 Rasgele örnekleme 
Rasgele örneklemede kümeler rasgele seçilir. Optimum ba¸sarı için birkaç kez tekrarlanır. 
Çapraz geçerlik içerisinde en yüksek ba¸sarıyı sa˘glayan yöntemdir. 
2.1.2 K Parçalı 
K parçalıda veri, K adet kümeye ayrılır. Birisi test kümesi için ve di˘ger K-1 küme birle¸s-tirilip 
e˘gitim kümesi için seçilir. Bu i¸slem kümeler de˘gi¸stirilerek K kez tekrarlanır. Genel 
ba¸sarı için K adet ba¸sarı de˘gerinin ortalaması alınır. 
2.1.3 Birini hariç tut 
Birini hariç tut yöntemi ile K parçalı geçerlik yöntemleri çok benzerdir. N adet örnek 
içeren veri kümesi için kullanılan birini hariç tut yöntemi K=N için K parçalı çapraz 
geçerlik gibi uygulanır. 
2
2.2 E˘gri uydurma 
[4]’daki kaynaklardan alınan bilgiler geçmi¸s verilere ait sınıflar yerine sürekli bilginin 
yer aldı˘gı problemlerdir. x ekseni hava sıcaklı˘gını, y ekseni de deniz suyu sıcaklı˘gını gös-termektedir. 
Bizden istenen hava sıcaklı˘gına ba˘glı olarak deniz suyu sıcaklı˘gının tahmin 
edilmesidir. ¸ Sekil 1’de giri¸s ile çıkı¸s arasındaki fonksiyonun e˘grisi bulunmu¸stur. 
¸ Sekil 1: Bir do˘gru olarak temsil edilen veri kümesi 
w0 +    + wny = 0 (1) 
peki ya bu do˘gruyu makine nasıl çiziyor? 
(x) = 1  x + 2 (2) 
˙Ifade 2 alınıp ifade 3’e fonksiyonu parametre olarak gönderilir. 3’de en küçük de˘geri veren 
2 fonksiyonunu kabul eder. 
H() = 
1 
2  m 
Xm 
i=1 
((xi)  yi)2 (3) 
 Regresyon 1 nolu ifadeye göre en az hata yapan wi leri bulmaya çalı¸sır. 
 Basit bir model 
 Yeterince esnek de˘gil 
3
2.3 Karar a˘gaçları 
Böl ve yönet stratejisi Nasıl bölece˘giz ? 
Ürettikleri kurallar anla¸sılır. 
Tablo 1: m ve uzun,orta,kısa niceliklerinden olu¸san veriler 
1,73 orta 
1,59 kısa 
1,98 uzun 
1,78 orta 
1,65 orta 
1,72 orta 
1,69 orta 
¸ Sekil 2: A˘gaç sınıflandırma yöntemi 
Yukarıda Tablo 1 te görüldü˘gü gibi bir veri kümesinin karar a˘gacı ¸ Sekil 2 deki gibi ola-caktır. 
Karar dü˘gümleri ve yapraklardan olu¸san hiyerar¸sik bir yapı. 
Karar A˘gaçları Olu¸sturma 
 [6]’deki verilere göre tüm veri kümesiyle ba¸slanır. 
 Bir özelli˘gin bir de˘gerine göre veri kümesi iki alt kümeye bölünür. Bölmede kulla-nılan 
özellikler ve de˘gerler karar dü˘güme yerle¸stirilir. 
4
Her alt küme için aynı prosedür, her alt kümede sadece tek bir sınıfa ait örnekler 
kalıncaya kadar uygulanır. 
Karar Dü˘gümleri Nasıl Bulunur ? 
 Karar dü˘gümlerinde yer alan özelli˘gin ve e¸sik de˘gerinin belirlenmesinde genel ola-rak 
entropi kavramı kullanılır. 
[5]’den her bir özelli˘gin Bilgi Kazancı (information gain) hesaplanır. Negatif ve 
pozitif örneklerden olu¸san bir S kümesi olsun. 
S kümesinin Entropy’si hesaplanırken 4’deki ifade kullanılır. 
f(s) = p:logp  q:logq (4) 
S kümesinde 14 örnek olsun: 9 pozitif ve 5 negatif ise, 
f(s) = (9=14):log9=14  (5=14):log5=14 = 0:94 
4 nolu denklem yardımıyla seçilen iki alan ile 5 nolu bilgi kazancı formülü hesaplanır. 
Gain(s; a) = f(s)  
X 
vV alues(a) 
jsvj 
jsj 
:f (sv) (5) 
 E˘gitim verisi her bir özelli˘gin her bir de˘geri için ikiye bölünür. Olu¸san iki alt kü-menin 
entropileri toplanır. En dü¸sük entropi toplamına sahip olan özellik ve de˘geri 
karar dü˘gümüne yerle¸stirilir. 
Örnek: 
2 nolu tablodaki örneklerde pikni˘ge gitmenin hangi özelli˘gin en baskın oldu˘gunu bulalım. 
Tablo 2: Örnek veri setimiz 
Hava Nem Rüzgar Su sıcaklı˘gı Pikni˘ge gidelim 
güne¸sli normal güçlü ılık evet 
güne¸sli yüksek güçlü ılık evet 
ya˘gmurlu yüksek güçlü ılık hayır 
güne¸sli yüksek güçlü so˘guk evet 
5
Pikni˘ge gidildimi? 
gitme olasılıgı 3/4,gitmeme olasılı˘gı 1/4 
f(piknik) = (3=4)  log0:75 
2  (1=4)  log0:25 
2 = 0:811 
ile piknik ile her bir olayın ko¸sullu olasılı˘gı ile alınarak, 
 0,811 pikni˘ge gitme olayının entropisi 
 0,75 havanın güne¸sli olma olasılı˘gı 
 0 hava güne¸sli iken pikni˘ge gidilmeme oranı 
 1 havanın güne¸sli iken pikni˘ge gidilmesi 
 0,25 havanın ya˘gmurlu olma oranı 
 0 hava ya˘gmurlu iken pikni˘ge gidilme oranı 
 1 hava ya˘gmurlu iken pikni˘ge gidilmeme oranı 
Gain(piknik; hava) = 0:811  (0:75)(1  log1 
2  0)  (0:25)(0  1  log1 
2) = 0:811 
aynı ¸sekilde 
Gain(piknik; nem) = 0:811(0:25)(1log1 
20)(0:75)(0:67log0:67 
2 0:33log0:33 
2 ) = 0:1225 
Gain(piknik; ruzgar) = 0:811  1(0:75  log0:75 
2 )  (0:25)(log0:25 
2  0:33) = 0 
Gain(piknik; susicaklik) = 0:811(0:75)(0:67log0:67 
2 0:33log0:33 
2 )1(1log1 
2) = 0:1225 
Bu i¸slemler sonucunda bilgi kazancı en büyük olan hava etkeni oldu˘gundan karar dü˘gü-münde 
en tepede hava etmeni bulunacaktır pikni˘ge gidilme olayı için. 
Karar A˘gaçlarıyla Sınıflandırma 
 En tepedeki kök karar dü˘gümünden ba¸sla. 
6
Bir yapra˘ga gelinceye kadar karar dü˘gümlerindeki yönlendirmelere göre dallarda 
ilerle (Karar dü˘gümlerinde tek bir özelli˘gin adı ve bir e¸sik de˘geri yer alır. O dü- 
˘güme gelen verinin hangi dala gidece˘gine verinin o dü˘gümdeki özelli˘ginin e¸sik 
de˘gerinden büyük ya da küçük olmasına göre karar verilir) 
 Verinin sınıfı, yapra˘gın temsil etti˘gi sınıf olarak belirle. 
2.4 Bayes teoremi 
Bir olayın meydana gelmesinde birden fazla etkenin olması ko¸sulunda [3]’den alınan-lardan, 
olayın hangi etkenin etkinli˘gi ile ortaya çıktı˘gını gösteren teorem 6 denklemi ile 
verilmi¸stir. 
p(hjd) = 
p(djh)p(h) 
p(d) 
(6) 
p(h)=h olayının önsel olasılı˘gı 
p(d)=d e˘gitim verisinin önsel olasılı˘gı 
p(djh)=h olayı verildi˘ginde d nin kosullu olasılı˘gı 
p(hjd)=d egitim verisi verildi˘ginde h nin ko¸sullu olasılı˘gı 
2.4.1 Naive bayes 
˙Istatistiksel bir sınıflandırıcıdır. ˙Istatistikteki bayes teoremine dayanır[3]. Örneklerin hangi 
sınıfa hangi olasılıkla ait olduklarını öngörür. Basit bir yöntemdir. Ö˘grenme zamanı yok-tur, 
yani sınıflandırmadan önce bir ba¸slangıç zamanı gerekmez. Her sınıflandırma için 
tüm veri kümesini i¸sler. Elimizde sınıfı belli olmayan bir örüntü olsun. Bu durumda 
x = [x(1); x(2);    ; x(L)]T 2 RL (7) 
sınıfı belli olmayan örüntünün L-boyutlu nicelik vektörü 7 ifadesi ¸selinde olacak. Spam 
e-posta örne˘ginden gidecek olursak spam olup olmadı˘gını bilmedi˘gimiz yeni bir e-posta 
sınıfı belli olmayan örüntüdür. Yine Si x’in atanaca˘gı sınıf ise; 
7
Bayes karar teorisine göre x sınıf Si’ya aittir e˘ger P(xjSi)  P(xjSj); 8j6= i di- 
˘ger bir ifade ile P(xjSi)P(Si)  P(xjSj)P(Sj); 8j6= i dir. Verilen bir x’in (x = 
[x(1); x(2);    ; x(L)]T 2 RL) sınıf Si’ye ait olup olmadı˘gına karar vermek için kullanı-lan 
yukarıda formüle edilen Bayes karar teoreminde istatistik olarak ba˘gımsızlık önerme-sinden 
yararlanılırsa bu tip sınıflandırmaya Naive bayes sınıflandırılması denir.Matematiksel 
bir ifadeyle P(xjSi)P(Si)  P(xjSj)P(Sj); 8j6= i ifadesindeki P(xjSi) terimi yeniden 
gibi yazılırsa 8 nolu ifade elde edilir. 
P(xjSi)  
YL 
k=1 
P(xkjSi) (8) 
böylece Bayes karar teoremi 9 nolu ifade ¸seklini alır. Bayes karar teorisine göre x sınıf 
Si’ya aittir e˘ger 
P(xjSi) 
YL 
k=1 
P(xkjSi)  P(xjSj) 
YL 
k=1 
P(xkjSj) (9) 
P(Si) ve P(Sj) i ve j sınıflarının öncel olasılıklarıdır. Elde olan veri kümesinden de- 
˘gerleri kolayca hesaplanabilir. Naive bayes sınıflandırıcının kullanım alanı her nekadar 
kısıtlı gözüksede yüksek boyutlu uzayda ve yeterli sayıda veriyle x’in (nicelik kümesi) 
bile¸senlerinin istatistik olarak ba˘gımsız olması ko¸sulu esnetilerek ba¸sarılı sonuçlar elde 
edilebilinir. 
Tablo 3: Gün,havadurumu,sicaklik,nem,rüzgar ve oynama durumu ile ilgili veri kümesi 
Gün havadurumu sicaklikderecesi nemoranı ruzgar oynamadurumu 
d1 güne¸s sıcak yuksek zayıf hayır 
d2 güne¸s sıcak yuksek siddetli hayır 
d3 bulut sıcak yuksek zayıf evet 
d4 ya˘gmur ılık yuksek zayıf evet 
d5 ya˘gmur serin normal zayıf evet 
d6 ya˘gmur serin normal siddetli hayır 
d7 bulutlu serin normal siddetli evet 
d8 güne¸sli ılık yuksek zayıf hayır 
d9 güne¸sli serin normal zayıf evet 
d10 ya˘gmur ılık normal zayıf evet 
d11 güne¸s ılık normal siddetli evet 
d12 bulut ılık yuksek siddetli evet 
d13 bulut sıcak normal zayıf evet 
d14 ya˘gmur ılık yuksek siddetli hayır 
Tablo 3 de gerekli islemler yapilarak Tablo 4 elde edilir. 
8
Tablo 4: Hava durumuna ili¸skin alanların ko¸sullu olasılıkları 
havadurumu 
p(gunes|evet)=2/5 p(gunes|hayır)=3/5 
p(bulut|evet)=4/4 p(bulut|hayır)=0 
p(ya˘gmur|evet)=3/5 p(yagmur|hayır)=2/5 
sıcaklık 
p(sıcak|evet)=2/4 p(sıcak|hayır)=3/4 
p(ılık|evet)=4/6 p(ılık|hayır)=2/6 
p(serin|evet)=3/4 p(serin|hayır)=1/4 
nemoranı 
p(yuksek|evet)=3/7 p(yuksek|hayır)=4/7 
p(normal|evet)=6/7 p(normal|hayır)=1/7 
Ruzgar 
p(siddetli|evet)=3/6 p(siddetli|hayır)=3/6 
p(zayıf|evet)=6/8 p(zayıf|hayır)=2/8 
Bu a¸samadan sonra ko¸sullu olasılıklar hesap edilecektir. 
p(evet)=9/14 
p(hayır)=5/15 
Yeni örnek X =ya˘gmur,sıcak,yüksek,zayıf 
P(evet|X)=? 
P(ya˘gmurlu|evet)P(sıcak|evet)P(yüksek|evet)P(zayıf|evet)P(evet) 
3/52/43/76/89/14 =0.062 
P(hayır|X) = ? 
P(ya˘gmurlu|hayır)P(sıcak|hayır)P(yüksek|hayır)P(zayıf|hayır)P (hayır) 
2/52/44/72/85/14 =0.01 
P(evet|X)P(hayir|X) oldu˘gundan örnek X’in sınıfı evet olarak öngörülür. 
Kullanım Alanları 
Metin sınıflandırma, konu¸smacı tanıma sistemleri ¸sifre kontrolü uygulamaları ,orta veya 
geni¸s e˘gitim kümesinin mevcut,orta veya geni¸s e˘gitim kümesinin mevcut olması duru-munda 
,örnekleri tanımlayan nitelikler, sınıflandırmadan ba˘gımsız olarak verildi˘ginde. 
Avantaj ve Dezavantajları 
Avantajları: Kolay uygulanabilirlik, üstün performans ço˘gu durumda iyi sonuçlar 
Dezavantajları: Varsayım,sınıf bilgisi verildi˘ginde nitelikler ba˘gımsız gerçek hayatta de- 
9
˘gi¸skenler birbirine ba˘gımlı de˘gi¸skenler arası ili¸ski modellenemiyor, test verisinin uzun 
i¸slem zamanıdır. 
Çözüm: Bayes a˘gları 
2.4.2 Bayes a˘gları 
[13]’de sunumlardan bayesçi a˘glarda dü˘gümler (nodes) rastlantı de˘gi¸skenlerini,dü˘gümler 
arasındaki ba˘glar(edges) ise rastlantı de˘gi¸skenleri arasındaki olasılıksal ba˘gımlılık du-rumlarını 
gösterir.Bayes a˘gları yönlü dönü¸ssüz grafik(Drected acyclic graph DAG) olarak 
bilinen bir grafiksel model yapısına sahiptir. Bu a˘glar kesin olmayan uzman görü¸slerinin 
sisteme girmesini sa˘glayan önemli bir yöntemdir.Bayes kuralındaki gibi ko¸sullu olasılık-ları 
yine kullanılacaktır.DAG yapısı dü˘gümler kümesi ve yönlendirilmi¸s ba˘glar kümesi 
olmak üzere iki kümeden olu¸sur.Dü˘gümler rastlantı de˘gi¸skenlerini temsil eder,daire bi-çiminde 
gösterilir.Ba˘glar ise de˘giskenleri arasındaki dogrudan ba˘glımlılıkları belirtir ve 
dü˘gümler arasında çizili oklarla gösterilir.xi ve xj agdaki iki dugum olmak üzere ,xi dü- 
˘gümünden xj dü˘gümüne do˘gru çizilen bir ba˘g kar¸sılık geldikleri de˘gi¸skenler de˘gi¸skenler 
arasındaki istatistiksel ba˘gımlılı˘gın bir göstergesidir.xi dü˘gümünden xj dü˘gümünün ebe-veyni 
,xj dü˘gümünün ise xi dü˘gümünün çocu˘gu oldu˘gu söylenebilir.Ayrıca ,a˘gdaki bir 
dü˘gümden çıkan dü˘güme gelen yol uzerinden yer alan dü˘gümler kümesine soy dü˘güm-ler, 
bir dü˘güme gelen yol üzerinde yer alan dü˘gümler kümesi ise ata dü˘gümler olarak 
tanımlanmı¸stır. X,y,z, rastlantı de˘gi¸skenleri tanım kümeleri sırasıyla ux; uy; uz bu rast-lantı 
de˘gi¸skenlerinin çok de˘gi¸skenli olasılık fonksiyonu Pxyz bu degiskenlerin aldıgı tüm 
x 2 ux; y 2 uy; z 2 uz de˘gerleri için Px;y;zx; y; z = Pxjzxjz  Pyjzyjz  Pzz yazılabili-yorsa 
z bilindi˘gine göre ,x ve y nin ko¸sullu ba˘gımsız oldugu söylenir ve x?yjz biçiminde 
yazılır.x?yjz ise Pyjzyjz  0 e¸sitsizliklerinin saglayan x 2 Ux; y 2 Uy; z 2 Uz tüm 
de˘gerleri için Pxjy;zxjy; z = Pxjz  xjz yazılabilir. Grafın a˘gların niceliklerini olarak ta-nımlanan 
parametrelerin belirlenmesi gerekir.Bu parametreler a˘gdaki her bir dü˘güme ait 
ko¸sullu olasılıklar,yalnızca kendi ebeveynleri ba˘glı olarak tanımlanır.Bu tablolarda ebe-veynlerin 
aldıgı de˘gerleri alma olasılıkları yer alır.Bu tablolara ko¸sullu olasılık tablosu 
denir.Bayes a˘glarında ,bir X = x1; :::; xn rastlantı degi¸skenleri kümesine ili¸skin çok de- 
˘gi¸skenli olasılık da˘gılımını temsil eden bir DAG tır.A˘g G ve Q olmak üzere iki bile¸senden 
10
olu¸sur.BN=GQ biçiminde gösterilir.˙Ilk bile¸sen G,dü˘gümlerin x1; :::; xn rastlantı de˘gi¸sken-lerini 
arasındakı do˘grudan ba˘gımlılık ları verecektir.Bayes a˘glarının ikinci bileseni Q, a˘g-daki 
parametrelerin kümesini gösterir.Bu parametreler,bayesçi a˘gdaki her bir x,rastlantı 
de˘gi¸skenine ili¸skin ko¸sullu olasılık da˘gılımlarıdır.Bir xi rastlantı de˘gi¸skeni için ko¸sullu 
olasılık da˘gılımı ,xi nin G deki ebeveynlerinin kümesi i,olmak üzere Qxiji = Pbnxiji 
biçiminde tanımlanır.Bir rastlantı de˘gi¸skeninin verilen bayesçi a˘gda bir ebeveyni yoksa 
bu rastlantı de˘gi¸skeni için ko¸sullu olasılık da˘gılımı ,marjinal olasılık da˘gılımına kar¸sılık 
gelir.Her bir de˘gi¸skene ait marjinal yada ko¸sullu olasılık da˘gılımları genel olarak yerel 
olasılıklar dagılımı olarak adlandırılır.Bu parametrelerden bayes a˘g yapısından yararla-nılarak 
x = x1; x2;    xn için tek bir çok de˘gi¸skenli olasılık da˘gılımı tanımlanır ve bu 
da˘gılım a¸sa˘gıdaki e¸sitlikten yararlanılarak elde edilir.Çok de˘gi¸skenli olasılık da˘gılımının 
bu e¸sitli˘gi denklem 10 ile ifade edilir bu kural zincir kuralı olarak adlandırılır. 
Qx1; ;xn; 
Yn 
i=1 
xiji; 
Yn 
i=1 
Qxijn (10) 
Bir bayesçi a˘ga yeni bilgi girildi˘ginde a˘gdaki de˘gi¸skenlerin ba˘gımsızlık durumuna d-ayrılık 
özeli˘ginden yaraklanılarak karar verilir.Nedensel bir a˘gda yer alan iki de˘gi¸sken 
a ve b olmak üzere bu de˘gi¸skenler arasında tüm yolları kesen bir c de˘gi¸skeni varsa ve a 
ile b arasında ¸ Sekil 3’deki gibi dizisel ¸sekilde, 
¸ Sekil 3: Seri ¸sekilde yollar 
yada serilen ba˘g varsa ve C nin durumu biliniyorsa yada a ile b arasında birle¸sen bag varsa 
ve c yada c nin soy dü˘gümleri hakkında herhangi bir bilgi yoksa aile b de˘gi¸skenlerinin 
¸ Sekil 4’teki gibi d-ayrıolur. 
11
¸ Sekil 4: Ayrılmı¸s ¸sekildeki yollar 
a ile b d ayrı de˘gil se d baglı  olarak adlandırılır ve ¸ Sekil 5 gibi ¸sematize edilir. 
¸ Sekil 5: Birle¸sen yollar 
Bayesçi a˘glarda çıkarsamalar ilgilenilen de˘gi¸skenlerin marjinal da˘gılımları hesaplana-rak( 
ili¸skisiz degiskenler üzerinden çok de˘gi¸skenli olasılık da˘gılımının toplamı alınarak) 
yapılır.Bayesçi a˘glarda çıkarsamalar en genel anlamda iki ¸sekilde gerçekle¸sir.Bunlardan 
ilkinde ,bir dü˘güme ebeveyn dü˘gümleri vasıtasıyla ba˘glı olan bilgi dü˘gümlerinden yarala-nılarak 
gerçekle¸stirilir.Bu hesaplama yöntemi yukarıdan a¸sa˘gıya çıkarsama olarak ad-landırılır. 
Di˘ger çıkarsama yönteminde ise bir dü˘güme çocuk dü˘gümleri vasıtasıyla ba˘glı 
olan bilgi dü˘gümlerine dayanır.Bu yöntem a¸sa˘gıdan yukarıya çıkarsama olarak adlan-dırılır. 
A˘g yapısının ögrenilmesi ,parametrelerin ögrenilmesinden daha zor bir problem-dir. 
Ayrıca gizli dü˘gümler yada kayıp veri gibi kısmi gözlenebilirlik durumu söz konusu 
oldu˘gunda ba¸ska zorluklarda ortaya çıkar.Genellikle,farklı ö˘grenme yöntemlerinin öne-rildigi 
¸ Sekil 6’daki gibi dört farklı ögrenme durumu söz konusudur. 
12
¸ Sekil 6: Bayes a˘glarında söz konusu dört durum) 
Bayesci ag yapısının ögrenilmesinde verilen bir D = x1; x2; :::; xn ögrenme veri kumesi 
için em uygun «B» bayesçi a˘gının bulunması amaçlanır.Bunun için de genellikle bir skor 
fonksiyonundan yararlanılır.Bu skor fonksiyonlarından en sık kullanılanları : 
bayesci skor fonksiyonu ve en kucuk tanım uzunlugu ilkesine dayalı bir fonksiyonu de-nir. 
Ekt ilkesi veriyi özetlemeye dayalı olarak ögrenmeyi gerçekle¸stirir.Bu ilkede amaç,orjinal 
verinin en kısa tanımını yapabilmektedir.b = (Gj) bir bayesci ag ve D=x1; x2;    ; xn 
ögrenme veri kumesi olsun.D verildi˘ginde B a˘gına ili¸skin ekt skor fonksiyonu denklem 
11 ile formulize edilmi¸stir. 
ektBjD = 
logN 
2 
jBj  LL(BjD) (11) 
|B| a˘gdaki parametre sayısıdır.LL(B|D) ise bilindi˘ginde B’nin logaritmik olabilirlik fonsi-yonudur. 
LL(BjD) = 
NP 
i=1 
log PBxi bir bayesçi a˘g sınıflandırıcısı C sınıf de˘gi¸skeni x1; x2;    ; xn 
di˘ger de˘gi¸skenler olmak üzere X = (x1; x2;    ; xn) olasılı˘gını modelleyen bayesçi a˘g B 
olsun.Bu sınıflandırıcı B üzerinden PB = (cjx1; x2;    ; xn) sonsal olasılı˘gını maksimum 
yapan C sınıflarını belirler. 
argmaxPB 
c CjX1;X2;    ;Xn Literaturde,sınıflandırma için kullanılan Bayes a˘g yapısını 
belirleyen bir çok farklı yakla¸sım mevcuttur. 
a. Tree augmented naive(tan) bayes sınıflandırıcısı 
b. Bayes naive augmented(ban) 
c. Bayesian multinet 
13
d. Genel bayesçi a˘g 
2.5 YSA(Yapay sinir a˘gları) 
˙Insan beynindeki sinir hücrelerinin i¸slevini modelleyen yapı [2]’den alınanlara göre; 
 ¸ Sekil 7 deki gibi birbiri ile ba˘glantılı katmanlardan olu¸sur. 
¸ Sekil 7: Yapay sinir a˘g katmanları(perseptronlar) 
 Katmanlar hücrelerden olu¸sur. 
 Katmanlar arasında iletim 
 ˙Ileti katmanlar arasındaki ba˘gın a˘gırlı˘gına ve her hücrenin de˘gerine ba˘glı olarak 
de˘gi¸sebilir. 
Tablo 5 de verildi˘gi gibi giri¸sler ve beklenen çıkıları belirtilmi¸stir. ¸ Sekil 8 ve ¸ Sekil 9 de 
karakutu yakla¸sımı,giri¸sler ile a˘gırlıkları ¸sematize edilmi¸stir. 
Tablo 5: Ve kapısının giri¸s ve çıkı¸sları 
birincil ikincil netice 
0 0 0 
0 1 0 
1 0 0 
1 1 1 
14
¸ Sekil 8: Yapay sinir a˘gının yakla¸sımı 
¸ Sekil 9: Ysa’nın ö˘grenme ¸sekli 
netice = I(0:5  birincil + 0:5  ikincil  t  0) (12) 
I(z) = 
8 : 
0 z  0 ise 
1 diger 
(13) 
 Birbiri ile ba˘glantılı nöronlar ve a˘gırlıklar 
 Denklem 14 teki gibi çıkı¸s nöronu kendisine gelen giri¸sleri a˘gırlıklı olarak topluyor 
 12 nolu ifadede çıkı¸s nöronu bir e¸sik de˘geri ile kar¸sıla¸stırılıyor 
X 
netice = I( 
i 
X 
wiXi  t); netice = sign( 
i 
wiXi  t) (14) 
15
¸ Sekil 10: Ysa’nın aktivasyon fonksiyonu 
 ¸ Sekil 10 de bir aktivasyon fonksiyonu ¸sematize edilmi¸stir. 
 Yapay sinir a˘gını ö˘grenme: a˘gırlıkları ö˘grenme 
Yapay Sinir A˘gı ile Ö˘grenme 
 Yapay sinir a˘gı olu¸sturma giri¸s verisini modelleme 
 Gizli katman sayısını, gizli katmanlardaki nöron sayısını belirleme 
 Yapay sinir a˘gını e˘gitme 
 Sinir a˘gını küçültme 
 Sonucu yorumlama 
Yapay Sinir A˘gını Olu¸sturma 
 Giri¸s nöron sayısı 
 Ö˘grenme kümesindeki verilerin nitelik sayısı 
 Gizli nöron sayısı ö˘grenme sırasında ayarlanır 
 Çıkı¸s nöron sayısı sınıf sayısı 
Yapay Sinir A˘gını E˘gitme 
16
Amaç: Veri kümesindeki örneklerin hepsini do˘gru sınıflandıracak a˘gırlıkları belir-lemek 
 A˘gırlıklara rasgele de˘gerler ata ö˘grenme kümesindeki giri¸s de˘gerlerini teker teker 
sinir a˘gına uygula 
 Çıkı¸sı hesapla 
 Hata de˘gerini hesapla 
 A˘gırlıkları hata fonksiyonunu en küçültecek ¸sekilde düzelt 
X 
i 
(Yi  f(wi;Xi))2 (15) 
Denklem 15 ile hata de˘geri hesaplanır. 
Yapay Sinir A˘gını Küçültme 
 Tam ba˘glı a˘gın anla¸sılması çok güç 
 n giri¸s nöron, h gizli nöron, m çıkı¸s nöronu h(m+n) a˘gırlık 
 Küçültme: a˘gırlıklardan bazıları sınıflandırma sonucunu etkilemeyecek ¸sekilde si-linir. 
Avantaj dezavantajları 
 Do˘gru sınıflandırma oranı genelde yüksek 
 Kararlı ö˘grenme kümesinde hata oldu˘gu durumda da çalı¸sıyor 
 Çıkı¸s ayrık, sürekli ya da ayrık veya sürekli de˘gi¸skenlerden olu¸san bir vektör olabi-lir 
 Ö˘grenme süresi uzun 
 Ö˘grenilen fonksiyonun anla¸sılması zor 
17
2.5.1 Çok katmanlı algılayıcılar 
Algılayıcı ve Adaline yöntemleri do˘grusal olmayan çözümler üretemedi˘gi için hem mi-mari 
hem de e˘gitim algoritması açısından iyile¸stirilmi¸s Çok Katmanlı Algılayıcı (MLP) 
a˘gı önerilmi¸stir. Mimari açıdan do˘grusal olmayan aktivasyon fonksiyonuna sahip birçok 
nöronun birbirine hiyerar¸sik olarak ba˘glandı˘gı bir yapıya sahip olan MLP, Algılayıcı ve 
Adaline yöntemlerinin avantajları yanı sıra geri-yayılım adındaki ö˘grenme sistemini kul-lanmaktadır. 
aktivasyon fonksiyonu 
Genel kavram olarak aktivasyon fonksiyonu, bir de˘gi¸skeni farklı bir boyuta ta¸sıyan do˘g-rusal 
veya do˘grusal olmayan bir fonksiyondur. Türevinin kolay alınabilmesi e˘gitim hızını 
arttırır. Sıklıkla kullanılan üç aktivasyon fonksiyonu vardır; Sigmoid,Hiperbolik Tanjant 
ve Adım Basamak. 
s(net) = 
1 
1 + enet (16) 
s(net) = 
8 
: 
1 net = 0 ise 
1 net  0 
(17) 
s(net) = 
1  e2net 
1 + e2net (18) 
Denklem 16 sigmoid fonksiyonunu,denklem 17 birim basamak,denklem 18’de hiperbolik 
tanjant fonsiyonunu belirtmektedir. 
2.5.2 Radyal tabanlı sinir a˘gları 
Radyal tabanlı a˘glar, duyarlı almaç bölgelerinin oldu˘gu giri¸s tabakası, radyal tabanlı nö-ronları, 
¸ Sekil 11, içeren gizli tabaka ve ço˘gunlukla do˘grusal aktivasyon fonksiyonlu nö-ronlardan 
ibaret çıkı¸s tabakasından olu¸sur.Radyal tabanlı a˘glar, geriyayılım algoritmalı 
ileri beslemeli a˘glardan daha fazla nöron kullanımına ihtiyaç duyabilirse de e˘gitim süresi 
çok daha kısadır. Yo˘gun e˘gitim verisiyle daha iyi sonuçlar verir.[11]’dan alınan verilerden 
yaralanılmı¸stır. 
18
¸ Sekil 11: Radyal tabanlı nöron 
Radyal tabanlı transfer fonksiyonunun net giri¸si, a˘gırlık vektörü, w, ile giri¸s vektörü, p’nin 
vektörel uzaklı˘gının bias terimi ile çarpımıdır. w ile p arasındaki uzaklık azaldıkça transfer 
fonksiyonunun çıkı¸sı artar ve uzaklık sıfırken çıkı¸s maksimum de˘geri 1’e ula¸sır. w ile p 
arasındaki uzaklık arttıkça çıkı¸s sıfıra gider. 
¸ Sekil 12: Radyal tabanlı fonksiyon 
¸ Sekil 12 de radyal tabanlı fonksiyon ve radyal tabanlı bir a˘gın topolojisi ¸ Sekil 13’de gös-terilm 
¸stir. 
19
¸ Sekil 13: Radyal tabanlı a˘g topolojisi 
2.6 Destek vektör makinesi 
SVM, Vladimir Vapnik ve Alexey Chernovenkis tarafından istatistiksel ö˘grenme teorisi 
kullanarak türetilmi¸s [7]’den alınan kaynaklara göre.Sınıfları birbirinden ayıran özel bir 
çizginin (hyperplane) nin bulunmasını amaçlar. Bu çizgi iki sınıfa en uzak olan çizgidir. 
E˘gitim verileri kullanılarak hyperplane bulunduktan sonra, test verileri sınırın hangi tara-fında 
kalmı¸ssa o sınıfa dahil edilir. ¸ Sekil 14 de verildi˘gi gibi lineer olarak ayrılması sa˘g-lanır. 
Sequential Mimimal Optimization, SMO (Ardı¸sık minimal optimizasyon metodu) 
olarakta adı geçmektedir. 
¸ Sekil 14: Destek vektör makinesi ile ayırma 
Lineer olarak ayrılamayan örneklerde veriler daha yüksek boyutlu ba¸ska bir uzaya ta¸sınır 
ve sınıflandırma o uzayda yapılır. A¸sa˘gıdaki ¸sekilde örnekler lineer olarak ayrılamaz iken, 
¸ Sekil 15 de üç boyutlu uzayda denklem 19 ile ayrılabilmektedir. 
20
x21 
; x22 
; (2  x1  x2)0:5 (19) 
Peki nasıl ayrılıyor? 
 SVM’de,lineer olmayan özellikler için kernel (çekirdek) terimi kullanılır,K(xi; xj) 
sembol ile gösterilir 
 Kerneller kullanarak, SVM lineer olmayan sınıflandırma için kullanılabilir 
 SVM problemi, bu ¸sekilde yazılabilir (dual ¸sekli adlandırılan ifade 20 ve ifade 21 
ve 22 da ise durumları gösterilmi¸stir); 
max 
X 
ai  
1 
2 
X 
aiajyiyj(xi  xj) (20) 
X 
aiyi = 0 (21) 
0  aiyi  C (22) 
 ˙Ifade 20’nin en sa˘gındaki parametre skalar oldu˘gundan dolayı xi  xj = K(xi; xj) 
yazaca˘gız. 
 4 farklı çekirdek opsiyonu vardır. 
 
1. K(xi; xj) = e 
(xi  xj)2 
22 en çok kullanılan, 
2. K(xi; xj) = (xi  yj)d homojen polinom kerneli, 
3. K(xi; xj) = (1 + xi  yj)d homojen olmayan polinom kerneli, 
4. K(xi; xj) = tanh(c + k  xi  yj) homojen polinom kerneli, 
21
¸ Sekil 15: Lineer olarak ayrılamayan verilerin sınıflandırılması 
3 Ö˘grenmesiz Ö˘grenme(Clustering) 
 [8]’daki verilerden kümeleme algoritmaları e˘giticisiz ö˘grenme metotlarıdır. 
 Örneklere ait sınıf bilgisini kullanmazlar. 
 Temelde verileri en iyi temsil edecek vektörleri bulmaya çalı¸sırlar. 
 Verileri temsil eden vektörler bulunduktan sonra artık tüm veriler bu yeni vektör-lerle 
kodlanabilirler ve farklı bilgi sayısı azalır. 
 Bu nedenle birçok sıkı¸stırma algoritmasının temelinde kümeleme algoritmaları yer 
almaktadır. 
Elimizde tek boyutlu 10 örnek içeren bir verimiz olsun. 
12 15 13 87 4 5 9 67 1 2 
Bu 10 farklı veriyi 3 farklı veri ile temsil etmek istersek 
12 12 12 77 3 3 3 77 3 3 
¸seklinde ifade ederiz. Gerçek de˘gerler ile temsil edilen de˘gerler arasındaki farkı minimum 
yapmaya çalı¸sır. 
Yukarıdaki örnek için 3 küme olu¸smu¸stur. 
12-15-13 örnekleri 1. kümede 
87-67 örnekleri 2. kümede 
4-5-1-2-9 örnekleri 3. kümede yer almaktadır. 
 Ölçeklenebilirlik 
22
Farklı tipteki niteliklerden olu¸san nesneleri demetleme 
 Farklı ¸sekillerdeki demetleri olu¸sturabilme 
 En az sayıda giri¸s parametresi gereksinimi 
 Hatalı veriler ve aykırılıklardan en az etkilenme 
 Model olu¸sturma sırasında örneklerin sırasından etkilenmeme 
 Çok boyutlu veriler üzerinde çalı¸sma 
 Kullanıcıların kısıtlarını göz önünde bulundurma 
 Sonucun yorumlanabilir ve anla¸sılabilir olması 
˙Iyi Demetleme 
˙Iyi demetleme yöntemiyle elde edilen demetlerin özellikleri; 
 aynı demet içindeki nesneler arası benzerlik fazla , farklı demetlerde bulunan nes-neler 
arası benzerlik az 
 Olu¸san demetlerin kalitesi seçilen benzerlik ölçütüne ve bu ölçütün gerçeklenme-sine 
ba˘glı 
 Uzaklık Benzerlik nesnelerin nitelik tipine göre de˘gi¸sir 
 Nesneler arası benzerlik: s(i; j) 
 Nesneler arası uzaklık: d(i; j) = 1  s(i; j) 
 ˙Iyi bir demetleme yöntemi veri içinde gizlenmi¸s örüntüleri bulabilmeli 
 Veriyi gruplama için uygun demetleme kriteri bulunmalı 
 demetleme = aynı demetteki nesneler arası benzerli˘gi en büyüten, farklı demetler-deki 
nesneler arası benzerli˘gi en küçülten fonksiyon 
 Demetleme sonucunun kalitesi seçilen demetlerin ¸sekline ve temsil edilme yönte-mine 
ba˘glı 
23
Peki temel demetleme yala¸sımları nelerdir? 
1. Bölünmeli yöntemler: Veriyi bölerek, her grubu belirlenmi¸s bir kritere göre de˘ger-lendirir 
2. Hiyerar¸sik yöntemler: Veri kümelerini (ya da nesneleri) önceden belirlenmi¸s bir 
kritere göre hiyerar¸sik olarak ayırır 
3. Yo˘gunluk tabanlı yöntemler: Nesnelerin yo˘gunlu˘guna göre demetleri olu¸sturur 
4. Model tabanlı yöntemler: Her demetin bir modele uydu˘gu varsayılır. Amaç bu mo-dellere 
uyan verileri gruplamak 
3.1 Bölünmeli yöntemler 
Amaç: n nesneden olu¸san bir veri kümesini (D); k; (k  n) demete ayırmak ayrılan her 
demette en az bir nesne bulunmalı ayrıca her nesne sadece bir demette bulunmalı 
Yöntem:Demetleme kriterini en büyütücek ¸sekilde D veri kümesi k gruba ayırma 
 Global çözüm: Mümkün olan tüm gruplamaları yaparak en iyisini seçme (NP kar-ma 
¸sık) 
 Sezgisel çözüm: k-means ve k-medoids 
k-means 1: Her demet kendi merkezi ile temsil edilir 
k-medoids2: Her demet, demette bulunan bir nesne ile temsil edilir 
3.1.1 k-kom¸su(k-means) 
E˘giticisiz bir yöntem olan K-Mean Clustering, eldeki verileri özelliklerine göre hiçbir 
sınıf bilgisi olmadan K sayıda kümeye gruplama i¸slemidir. Gruplama, ilgili cluster’ın 
centroid (merkez) de˘geri ile veri setindeki her objenin/nesnenin arasındaki farkın kareleri 
toplamının minimumu alınarak gerçekle¸stirilir. Objelerin sınıflandırılması i¸slemi gerçek-le 
¸stikten sonra her bir sınıfa veya kümeye ilgili etiketin verilmesi uzman bir ki¸si tarafından 
1 MacQueen tarafından 67 yılında bulunmu¸stur. 
2PAM (Partition around medoids) (Kaufman  Rousseeuw’87) 
24
yapılır [4]’daki verilere göre. 
Örnek: 
E˘gitim setinizde 4 adet objenin oldu˘gu ve her bir objenin iki özelli˘ge sahip oldu˘gunu var-sayalım. 
Tablo 6: Nesne ve o nesneye ait olan nicelikler(ö˘grenmesiz ö˘grenme) 
Nesne Ozelik1(A˘gırlık indeksi(X)) Ozellik2(Y)pH 
medicinea 1 1 
medicineb 2 1 
medicinec 4 3 
medicined 5 4 
Öncelikle bilinmesi gereken objelerin kaç kümeye ayrılaca˘gıdır (bu örnek Tablo 6 için 2 
olsun, Cluster 1 ve Cluster 2). Esas problem ise bu ilaç objelerinin hangisinin Cluster 1, 
hangisinin Cluster 2’ye ait oldu˘gudur. 
 Öncelikle cluster (küme) sayısına karar verilir (k) 
 Herbir cluster’ın centroid/merkez noktası belirlenir 
 Ba¸slangıç centroid’leri olarak veri setinden rasgele k nokta seçilebilir veya 
 Veriler sıralanarak her k ve k’nın katlarında yer alan de˘gerler centroid noktaları 
olarak alınabilir 
 Daha sonra K-means algoritmasında, cluster’lar içerisinde yer alan objeler hare-ketsiz 
kalıncaya kadar yani yer de˘gi¸stirmeyinceye kadar üç a¸samadan olu¸san i¸slem 
tekrarlanır 
 Centroid noktalarına karar verilir 
 Her objenin centroid noktalarına olan uzaklıkları hesaplanır 
 Her obje minimum uzaklı˘gı sahip oldu˘gu cluster’a atanır 
K-means demetleme çe¸sitleri 
25
K-Means demetlemeye ba¸slamadan önce yapılanlar 
Veri kümesini örnekleyerek hiyerar¸sik demetleme yap. Olu¸san k demetin orta-lamasını 
ba¸slangıç için merkez nokta seç 
Ba¸slangıçta k’dan fazla merkez nokta seç. Daha sonra bunlar arasından k tane 
seç. 
 K-Means demetleme i¸slemi sonrasında yapılanlar 
Küçük demetleri en yakın ba¸ska demetlere dahil et 
En büyük toplam karesel hataya sahip olan demeti böl 
Merkez noktaları birbirine en yakın demetleri birle¸stir 
Toplam karesel hatada en az artı¸sa neden olacak iki demeti birle¸stir 
K-Means demetleme algoritmasının özellikleri 
 Gerçeklemesi kolay 
 Karma¸sıklı˘gı di˘ger demetleme yöntemlerine göre az 
 K-Means algoritması bazı durumlarda iyi sonuç vermeyebilir 
Veri grupları farklı boyutlarda ise 
Veri gruplarının yo˘gunlukları farklı ise 
Veri gruplarının ¸sekli küresel de˘gilse 
Veri içinde aykırılıklar varsa 
3.1.2 K-medoids demetleme yöntemi 
Her demeti temsil etmek için demet içinde orta nokta olan nesne seçilir. 
 1, 3, 5, 7, 9 ortalama:5 
 1, 3, 5, 7, 1009 ortalama=205 
 1, 3, 5, 7, 1009 orta nokta=5 
26
Medoids demetleme yöntemi 
PAM (Partitioning Araound Medoids 1987) 
 Ba¸slangıçta k adet nesne demetleri temsil etmek üzere rasgele seçilir xik 
 Kalan nesneler en yakın merkez nesnenin bulundu˘gu demete dahil edilir 
 Merkez nesne olmayan rasgele bir nesne seçilir xrk 
 xrk merkez nesne olursa toplam karesel hatanın ne kadar de˘gi¸sti˘gi bulunur 
 23 nolu denklem Tcik  0 ise xrk merkez nesne olarak atanır 
 Demetlerde de˘gi¸siklik olu¸smayana kadar Merkez nesne olmayan rasgele bir nesne 
seçilir xrk i¸slemi gerçeklenir. 
nk=k demeti içindeki nesne sayısı xjk=k demeti içindeki j. nesne 
Tcik = 
nk X 
j=1 
(xik  xjk)2  
nk X 
j=1 
(xrk  xjk)2 (23) 
Özellikler 
 Küçük veri kümeleri için iyi sonuç verebilir, ancak büyük veri kümeleri için uygun 
de˘gildir [14]’deki verilere göre. 
3.2 Hiyerar¸sik yöntemler 
Demet sayısının belirlenmesine gerek yok ancak sonlanma kriteri belirlenmesi gereki-yor. 
A¸sa˘gıdan yukarıya agglomerative,yukarıdan a¸sa˘gıya divisive denir. 
 AGNES (AGglomerative NESting): 
Kaufmann ve Rousseeuw tarafından 1990 yılında önerilmi¸stir. 
Birinci adımda her nesne bir demet olu¸sturur. 
Aralarında en az uzaklık bulunan demetler her adımda birle¸stirilir. 
Bütün nesneler tek bir demet içinde kalana kadar yada istenen sayıda demet 
elde edene kadar birle¸stirme i¸slemi devam eder. 
27
DIANA (DIvisive ANAlysis): 
Kaufmann ve Rousseeuw tarafından 1990 yılında önerilmi¸stir. 
AGNES’in yaptı˘gı i¸slemlerin tersini yapar. 
En sonunda her nesne bir demet olu¸sturur. 
Her nesne ayrı bir demet olu¸sturana ya da istenilendemet sayısı elde edene 
kadar ayrılma i¸slemi devam eder. 
Hiyerar¸sik demetleme 
 Dendogram: Demetler hiyerar¸sik olarak a˘gaç yapısı ¸seklinde görüntülenebilir 
 Ara dü˘gümler çocuk dü˘gümlerdeki demetlerin birle¸smesiyle elde edilir 
Kök: bütün nesnelerden olu¸san tek demet 
Yapraklar: bir nesneden olu¸san demetler 
 Dendogram istenen seviyede kesilerek demetler elde edilir 
A¸sa˘gıdan yukarıya demetleme 
 Algoritma 
Uzaklık matrisini hesapla 
Her nesne bir demet 
Tekrarla 
En yakın iki demeti birle¸stir 
Uzaklık matrisini yeniden hesapla 
Sonlanma: Tek bir demet kalana kadar 
 Uzaklık matrisini hesaplarken farklı yöntemler farklı demetleme sonuçlarına neden 
olurlar 
Hiyerar¸sik demetleme yöntemlerinin özellikleri 
 Demetleme kriteri yok 
28
Demet sayılarının belirlenmesine gerek yok 
 Aykırılıklardan ve hatalı verilerden etkilenir 
 Farklı boyuttaki demetleri olu¸sturmak problemli olabilir 
 Yer karma¸sıklı˘gı - O(n2) 
 Zaman karma¸sıklı˘gı - O(n2logn) ve n : nesne sayısı 
3.3 Yo˘gunluk tabanlı yöntemler 
 Demetleme nesnelerin yo˘gunlu˘guna göre yapılır. 
 Ba¸slıca özellikleri: 
Rastgele ¸sekillerde demetler üretilebilir. 
Aykırı nesnelerden etkilenmez. 
Algoritmanın son bulması için yo˘gunluk parametresinin verilmesi gerekir. 
 Ba¸slıca yo˘gunluk tabanlı yöntemler: 
DBSCAN: Ester, et al. (KDD’96) 
OPTICS: Ankerst, et al (SIGMOD’99). 
DENCLUE: Hinneburg  D. Keim (KDD’98) 
CLIQUE: Agrawal, et al. (SIGMOD’98) 
3.3.1 DBSCAN 
 ˙Iki parametre: 
Eps: En büyük kom¸suluk yarıçapı 
MinPts: Eps yarıçaplı kom¸suluk bölgesinde bulunan en az nesne sayısı 
 Neps(p) : q 2 Djd(p; q)  Eps 
29
Do˘grudan eri¸silebilir nesne: Eps ve MinPts ko¸sulları altında bir q nesnesinin do˘g-rudan 
eri¸silebilir bir p nesnesi ¸su ¸sartları sa˘glar: 
p 2 Neps(q) 
q nesnesinin çekirdek nesne ko¸sulunu sa˘glaması Neps(q)  MinP ts 
 Eri¸silebilir nesne: 
Eps ve MinPts ko¸sulları altında q nesnesinin eri¸silebilir bir p nesnesi olması 
için: 
p1; p2;    ; pn nesne zinciri olması 
p1 = q; pn = p 
pi nesnesinin do˘grudan eri¸silebilir nesnesi:pi+1 
 Yo˘gunluk ba˘glantılı Nesne: 
Eps ve MinPts ko¸sulları altında q nesnesinin yo˘gunluk ba˘glantılı nesnesi p ¸su 
ko¸sulları sa˘glar: 
p ve q nesneleri Eps ve MinPts ko¸sulları altında bir o nesnesinin eri¸silebilir 
nesnesidir. 
Yo˘gunluk tabanlı yöntemlerin özellikleri 
 Veri tabanındaki her nesnenin Eps yarıçaplı kom¸suluk bölgesi ara¸stırılır. 
 Bu bölgede MinPts’den daha fazla nesne bulunan p nesnesi çekirdek nesne olacak 
¸sekilde demetler olu¸sturulur. 
 Çekirdek nesnelerin do˘grudan eri¸silebilir nesneleri bulunur. 
 Yo˘gunluk ba˘glantılı demetler birle¸stirilir. 
 Hiçbir yeni nesne bir demete eklenmezse i¸slem sona erer. 
 Yer karma¸sıklı˘gı - O(n) 
 Zaman karma¸sıklı˘gı - O(n log n) n: nesne sayısı 
30
3.4 Model tabanlı demetleme yöntemleri 
 Veri kümesi için öngörülen matematiksel model en uygun hale getiriliyor. 
 Verinin genel olarak belli olasılık da˘gılımlarının karı¸sımından geldi˘gi kabul edilir. 
 Model tabanlı demetleme yöntemi 
Modelin yapısının belirlenmesi 
Modelin parametrelerinin belirlenmesi 
 Örnek EM (Expectation Maximization) Algoritması 
 Demetlemede amaç gizli de˘gi¸skenleri bulmak: sınıf bilgisi 
 Gizli de˘gi¸skenler veri üzerinde bir olasılık fonksiyonu ile matematiksel olarak ifade 
edilebilen bir olasılıksal da˘gılımdır 
 Örnek: Satılan dijital kameraların sınıfı 
Profesyonel veya amatör (C1 ve C2) 
 Her sınıf için iki olasılık yo˘gunluk fonsiyonu: f1 ve f2 
 Olasılıksal karı¸sım modelleri gözlenen verinin farklı olasılık da˘gılımları ile temsil 
edilen demetlerin örnekleri oldu˘gunu varsayar 
 Gözlenen verideki her örnek birbirinden ba˘gımsız 
˙Istatistiksel olarak: 
 K nesneden olu¸san bir veri kümesi D = x1; x2;    ; xK 
8xi(i 2 [1;   K]) nesnesi  parametre kümesiyle tanımlanan bir olasılık da˘gı-lımından 
olu¸sturulur. 
Olasılık da˘gılımının, cj 2 C = c1; c2;    ; cG ¸seklinde G adet bile¸seni vardır. 
8g; g 2 [1; :::;G] parametre kümesi g bile¸seninin olasılık da˘gılımını belirleyen, 
kümesinin ayrı¸sık bir alt kümesidir. 
P 
Herhangi bir xi nesnesi öncelikle, p(cgj) = g; ( 
G g = 1) olacak ¸sekilde 
31
bile¸sen katsayısına (ya da bile¸senin seçilme olasılı˘gına) göre bir bile¸sene atanır. 
Bu bile¸sen p(xijcg; g) olasılık da˘gılımına göre xi de˘gi¸skenini olu¸sturur. 
Böylece bir xi nesnesinin bu model için olasılı˘gı bütün bile¸senlerin olasılıkla-rının 
toplamı denklem 24 ve 25 ile ifade edilebilir: 
p(xi; ) = 
XG 
g=1 
p(cgj)p(xijcg; g) (24) 
p(xi; ) = 
XG 
g=1 
gp(xijcg; g) (25) 
 Model parametrelerinin belirlenmesi 
Maximum Likelihood (ML) yakla¸sımı denklem 26’deki gibidir. 
`ML(1;    ; G; 1;    ; GjD) = 
YK 
i=1 
XG 
g=1 
gp(xijcg; g) (26) 
Maximum aposteriori (MAP) yakla¸sımı 27 deki gibi olacaktır. 
`MAP (1;    ; G; 1;    ; GjD) = 
YK 
i=1 
XG 
g=1 
gp(xijcg; g)p() 
D 
(27) 
Uygulamada her ikisinin logaritması 28 ve 29 ile ifade edilebilir. 
L(1;    ; G; 1;    ; GjD) = 
XK 
i=1 
ln 
XG 
g=1 
gp(xijcg; g) (28) 
L(1;    ; G; 1;    ; GjD) = 
XK 
i=1 
ln 
XG 
g=1 
gp(xijcg; g) + lnp() (29) 
3.4.1 EM algoritması 
 Veri kümesi: D = x1; x2;    ; xK 
 Gizli de˘gi¸skenler H = z1; z2;    ; zk (her nesnenin hangi demete dahil oldu˘gu bil-gisi) 
32
zj = xj ; y1j ; y2j ;    ; yGjxj verisi ci demetinde ise yij = 1 
 Verinin eksik oldu˘gu durumda, tam verinin beklenen de˘geri 30 nolu denklem ile 
hesaplanır. 
Q(; 0) = E(Lc(D;Hj)jD; 0) = 
XK 
i=1 
XG 
g=1 
p(Cgjxi)[ln p(xijcg) + ln g] (30) 
E ve M adımları 
 ˙Iki adım arasında yinelemeli 
 E adımı: ’ parametrelerine dayanarak eksik veri için en iyi olası kestirimler 
 M adımı: Eksik veri atandı˘gında yeni parametrelere ili¸skin kestirimler 
 EM Algoritmasının adımları: 
’ için ba¸slangıç de˘gerleri atama 
(E) Expectation: Q(j0) hesaplanması 
(M) Maximization: argmaxQ(j0) 
Normal da˘gılım için EM algoritması 
 xj verisi ci demetinde ise yij = 1 de˘gilse yij = 0 
 E adımı: p(ci; xj ; l) = p(yij = 1; l) = 
p(xj jci; l 
i; l 
i)p(ci) 
PG 
g=1 P(cg)p(xj jcg; l 
i; l 
i) 
 hij 
 Normal da˘gılım için:P(xj jci; i; ) = 
1 
(2)d=2d exp 
(xj  i)2 
22 
 Madımında ise p(ci) = 
P 
j hij 
K 
ve l+1 
i = 
P 
j hijxj P 
j hij 
ayrıca l+1 
i = 
P 
j hij(xj  l 
i)(xj  l 
i)T 
P 
j hij 
4 ˙Ili¸skili(Associate) 
4.1 Appriori(ili¸skilendirme) 
Bir süpermarkette, x ürününü alan mü¸sterilerin yüzde 80’i y ürününü de alıyorsa, x ürü-nünü 
alıp, y ürününü almayan mü¸steriler, y ürününün potansiyel mü¸sterileridir. Mü¸sterile- 
33
rin sepet bilgilerinin bulundu˘gu bir veri tabanında potansiyel y mü¸sterilerini bulma i¸slemi 
türündeki problemler ili¸ski belirme yöntemleri ile çözülür.[9] 
 Sepet analizi 
 Raf düzenlemesi 
 Promosyonlar 
34
Makine ö˘grenme simulatörü 
Piyasada bu alanda birden çok program mevcuttur.Biz hem kolay bulunması ve de kolay 
anla¸sılır arayüzü nedeniyle weka’yı kullanaca˘gız.Programın arayüzü ¸ Sekil 16 da gösteril-mi 
¸stir. 
5 Weka 
[7]’e göre Weka’nın açılımı Waikato Environment for Knowledge Learning.Bu program 
Yeni Zelanda’nın Waikato üniversitesi tarafından geli¸stirilmi¸stir.Weka programı ile veri-leri 
öni¸sleme,sınıflandırma,demetleme gibi i¸slemleri data tipine göre i¸sliyebiliyoruz. 
5.1 Ortam tanıtımı 
Explorer:Bu sekme veri ön i¸sleme secilen özeli˘ge ait istatistiklerin görüntülenmesini sa˘g-layan 
forma götüren sekmedir. 
Knowledge Flow:Sürükle bırak mantı˘gına göre belirli komponentlerle yapılan islemlerin 
yapılmasını sa˘glayan forma götürür. 
¸ Sekil 16: Waikato üniversitesi tarafından geli¸stirilmi¸s bir makine ö˘grenme simülasyonu 
35
Yukarıdaki formda explorer sekmesi tıklandı˘gında ¸ Sekil 17 daki form açılır.Bu asamadan 
sonra formun üst kısmındaki butonlarla asıl i¸simiz.Yukarıda sözü geçen perprocess,classify,cluster 
vb. dü˘gmeler. 
¸ Sekil 17: Seçilen veri kümesinin öni¸slemeye tabi tutulması için gereken form ekranı 
5.2 Veri alınması 
Open file sekmesini tıklatıp ilgili kaynak kodumuz csv,arff yada ilgili veritabanı ba˘glantısı 
aracılı˘gıyla dataları çekebiliyoruz.Ancak biz farklı yollara girmeyip arff dosya formatında 
bahsedersek, ¸ Sekil 18 deki gibi olmalıdır. 
Yani javadaki class’ın ismi ile dosyanın adının aynı olması gibi ili¸skilendirilebilir.alanlar: 
@relation ’dosyaismi’ 
@attribute degiskenadi dizitipidegiskenleri 
36
¸ Sekil 18: Weka’da arff dosya formatının veri yapısı,veriler 
yada 
@attribute degiskenadi (numeric,real,vb..) 
@data 
sonra ilgili veriler girdi˘gimiz alan kadar girilip alt satırda kayıtlar devam edilir. 
˙Ilgili .arff dosyamızı Open file butonuyla açtıktan sonra Filter sekmesinin altında ili¸skili 
dosyanın adı kaç tane örneklemesinin oldu˘gu kaç adet sütun alanının oldu˘gu bilgileri 
¸ Sekil 19 de,sa˘g üstteki kısımda sol alttaki seçilmi¸s olan alana göre istatistiki verileri herbir 
alanından kaç adet veri oldu˘gu bilgisi string grid komponentine yazılmı¸s hemen altındaki 
chart grafiginde ise secilen alanla ilgili görsel istatiski kullanıcıya ¸ Sekil 20 de göstermi¸stir. 
5.2.1 Kullanaca˘gımız yöntemler 
Kullanılan yöntemlere geçmeden önce ¸ Sekil 21 deki gibi sınıflandırma geçerlili˘gi buton-ları 
vardır. use training set çekbaksını tiklersek bütün datayı pratik olarak alacaktır.Daha 
sonra test yapmak istedi˘gimizde aynı duzene sahip bir formatta bir dosya olu¸sturarak 
supplied test set çekbaksı aracılı˘gla test ederiz. 
37
¸ Sekil 19: Weka’da veri ön i¸sleme ekranı 
¸ Sekil 20: Sol alttaki çekbaksların seçilerek ilgili istatistiklerin gösterilmesi 
38
cross validation 
çekbaksı tiklendi˘ginde ise veri,textbakstaki sayi k olursa k adet kümeye ayrılır. Birisi test 
kümesi için ve di˘ger K-1 küme birle¸stirilip e˘gitim kümesi için seçilir. Bu i¸slem kümeler 
de˘gi¸stirilerek K kez tekrarlanır. Genel ba¸sarı için K adet ba¸sarı de˘gerinin ortalaması alınır. 
¸ Sekil 21: Wekada ö˘grenmeli ö˘grenmede pratik yöntemleri 
Percentage split 
çekbaksı tiklendi˘ginde ise yüzde olarak kısmını e˘gitimde kalan kısmını ise test a¸sama-sında 
kullanır. 
5.3 Kullanılan yöntemlerin cevap açıklamaları 
Correctly classified instances=Sinifi do˘gru belirlenen sayisi(datanın) 
incorrectly classified instances=Sinifi yanlis belirlene sayisi(sa˘glıksız veri) 
mean absolute error=tam hata degeri 
root mean squared error=gerçel hatanın karesi 
Relative absolute error =göreceli tam hata 
Root relative absolute error =göreceli tam hatanın karekökü 
total number of instances =toplam örnekleme sayisi 
tp rate=do˘gru sınıflandırılmı¸s örnek sayisinin tümüne oranı 
fp rate=yanlı¸s sınıflandırılmı¸s örnek sayisinin tümüne oranı 
39
precision=pozitif do˘gruların bütün pozitiflere oranı 
recall=pozitif do˘gruların pozitif do˘grularla negatif yanlı¸sların toplamına oranı 
accuracy=(do˘gruların tümüne oranı) 
düzensizlik matrisi 
a b 
2 1 a=0 
5 3 b=1 
 Burada 2 a da do˘gru örneklenen sayisi 
 Burada 3 b de do˘gru örneklenen sayisi 
 5 ise b olarak verilen ancak a da olan 
 1 a da verilen ancak b de sınıflandırılmı¸stır. 
5.4 Görsel komponentlerle i¸sleme 
5.4.1 Nereden yapılır? 
Weka arayüzü ana menüden knowledge flow butonu tıklanarak ¸ Sekil 22’ deki gibi. 
40
¸ Sekil 22: Weka’da knowledge flow butonu 
5.4.2 Yükleme(loader) Durumu 
Gelen arayüzden DataSource sekmesi yardımıyla ¸ Sekil 23’deki gibi butonlar gelecek-tir. 
Bu sekmeler yardımıyla bundan sonraki a¸sama olan alan seçme i¸slemi gerçeklenecek-tir. 
Genelde arff loader kompanenti kullanıyoruz. 
¸ Sekil 23: Data Source sekmesi içeri˘gi 
41
5.4.3 Kayıt ediciler 
Bu sekme ile biz hedef dosyada farklılıkları kayıt edebiliyoruz.Bu sekmenin içeri˘ginde 
¸ Sekil 24’de oldu˘gu gibi komponentler bulunur. 
¸ Sekil 24: Data Sink sekmesi içeri˘gi 
5.4.4 Filtreler 
Filtre sekmesi ¸ Sekil 25’deki ö˘grenmeli ve ö˘grenmesiz olmak üzere iki tiptir. 
¸ Sekil 25: Filtreler 
5.4.5 Sınıflayıcılar 
Ö˘grenmeli ö˘grenme yöntemlerinin algoritmaları içerir,veriyi loader dan sınıf atamaları ve 
seçilmesi yapıldıktan sonra e˘gitim ve test verileri’ni gönderecek olan komponente oradan 
da söz konusu algoritma ile i¸slenecek daha sonra ise sınıflanırma yada demetleme dö-nü 
¸stürücüsüne ilgili parametreleri aktaracaktır ayrıca bayes ve a˘gaç uygulamalarında da 
görsel sekmeden grafik komponentine aktarılarak graf ve karar a˘gacının yapısı görüntü-lenebilir. 
¸ Sekil 26 deki gibi komponentler mevcuttur. 
¸ Sekil 26: Data Classifier sekmesi 
42
5.4.6 Demetleyiciler 
Ö˘grenmesiz ö˘grenme yöntemlerinin ö˘grenmeli de oldu˘gu gibi ¸ Sekil 27’deki simgeler tıkla 
bırak yaparak kullanıyoruz. 
¸ Sekil 27: Data Clusterer sekmesi 
5.4.7 ˙Ili¸skilendirmeler 
Veri madencili˘ginin önemli bir kolu olan ili¸skilerin ke¸sfini sa˘glayan ayrıca ili¸skilendirme 
komponentleri ¸ Sekil 28’deki gibi tanımlanmı¸stır. 
¸ Sekil 28: Data Associate sekmesi 
5.4.8 Konvertör komponentler 
Bu elemanlar ise arff loader çekilen verilerin alanlarının tanınması,sınıflandırılacak olan 
özeli˘gi seçme ayrıca sınıflandırma yapıldıktan sonra ilgili metottan dönecek olan hata ve 
sınıflandırma detaylarını parametre olarak alır olarak alır ve ilgili komponentlere gön-derir, 
bu yönüyle binevi aktarma görevi üstlenmi¸stir.Bu komponentler ¸ Sekil 29’deki gibi 
tanımlanmı¸stır. 
¸ Sekil 29: Data Evaluation sekmesi 
5.4.9 Görsel komponentler 
Yüklenen verilen görsel olarak incelenmesinin yanı sıra ö˘grenme algortimalarında dö-nen 
parametrelerin(e¸sik de˘geri,hata vb.) görüntülenmesi sa˘glayan komponentleri barındı- 
43
rır.Görüntüsü ¸ Sekil 30’deki gibidir. 
¸ Sekil 30: Data Visualization sekmesi 
Birkaç örnek yapalım 
¸ Sekil 31’da oldu˘gu gibi öncelikle arff loader simgesi ,sonra ise class assigner simgesi 
eklendi sonra ise çapraz do˘grulama ,graph viewer,j48,graph viewer,classifier perfor-mance 
evaluator,text viewer,model performance chart komponentlerini ekliyoruz.Bu 
siralama ¸su an önemli de˘gil ancak ba˘glantıları açısında sıralı olarak eklememiz ¸sekilsel 
olarak anlamamıza yardımcı olacaktır. arff loader simgesini sol klikle dosyayı yüklüyo-ruz 
sonra sa˘g klikleyip dataset seçip class assigner’a ba˘glıyoruz.Aynı ¸sekilde class As-signer 
simgesinin sa˘g klikleyip datasetini cross validation fold maker simgesine gönde-riyoruz. 
Bu a¸samadan sonra aynı ¸sekilde cross validation fold maker simgesi sa˘g tıklanıp 
e˘gitim ve test okları j48 simgesine yönlendiriyoruz.J48’in aynı ¸sekilde sa˘g klikleyip graph 
seçip graph viewer simgesiyle birle¸stiriyoz.J48 den devam edersek sa˘g tıklayıp batch clas-sifiers 
özeli˘gini secip classifier performance evaluator simgesine yönlendiriyoruz bu kom-ponentten 
de visualizable error parametresini mdel performace chart ’a sonuç verileri olan 
text dosyalarını ise text viewer’a gönderip anla¸sılabilir sonuçları analiz edilir.Peki i¸slem 
nasıl ba¸slatılır? 
¸Söyle arff loader simgesinin üzerine gelinip sq˘g tıklatılıp start loading sekmesi tıklan-dı 
˘gında i¸slem ba¸slatılmı¸s olunacak ve analiz yapmak için son uçlardaki komponentlerin 
üzerine sa˘g tıklantılıp show result ya da bu bir chart ise show cart secene˘gi seçilerek 
sonuçlar incelenebilir. 
44
¸ Sekil 31: J48 karar a˘gacından olu¸san bir sistem 
Aynı ¸sekilde ¸ Sekil 32’de buna benzer bir örnek yalnızca burada bir nüans farkı class value 
picker kompenenti mevcut bu eleman ise bizim veriyi hangi alana göre sınıflandırılaca- 
˘gına olanak sa˘glayan opsiyondur. 
¸ Sekil 32: Bayes ö˘grenmesini ili¸skin sistem 
¸ Sekil 33’de gösterilen örnekte ise ö˘grenmesiz ö˘grenen bir sistem tasarlanmı¸stır bu sis-tem 
yukarıdaki örneklerden pek farklı de˘gildir ancak söz konusu bu durumda yine bir 
farklılık gözümüze çarpacaktır,o da classifier performance evalutor yerine clusterer 
performance evalutor yani anla¸sılaca˘ga üzere sınıflandırma ile demetleme metotlarının 
i¸slemesi biribirinden farklı oldu˘gu için farklı bir konvertör kullanmamızdır. 
45
¸ Sekil 33: Ö˘grenmesiz ö˘grenme yöntemi olan k-means kullanımı 
A¸sa˘gıdaki ¸ Sekil 34’de gösterilen sistemde ise bir çok katmalı algılayıcı tabanlı bir sistem 
gösterilmi¸stir. 
¸ Sekil 34: ÇKA’lı bir simulasyon arayüzü 
46
SONUÇLAR 
¸ Sekil 35 de tree algoritması kullanılarak veriler i¸slenmesi sonra ¸ Sekil 36 deki gibi ilgili 
butonlar aracılı˘gıyla veri kümesindeki a˘gaç yapısı çizdirilmi¸stir.Son olarak ¸ Sekil 37 te ise 
agaç yapısı gösterilmistir. 
¸ Sekil 35: A˘gaç sınıflandırma metodu kullanarak verilerin i¸slenmesi 
47
¸ Sekil 36: Wekada j48 a˘gaç metodu ile karar a˘gacının görüntülenmesi 
¸ Sekil 37: ˙Ilgili veri kümesinin karar a˘gacı 
¸ Sekil 38 de ise destek vektör makinesi kullanılarak verinin i¸slenmesi sonuçları ayrıca 
¸ Sekil 39 de ise makinenin hangi çekirde˘gi kullanarak gerçekleyece˘gi gösterilmektedir. 
48
¸ Sekil 38: Destek vektör makinesi(bu programdaki adıyla smo) yöntemi kullanılarak veri 
i¸sleme 
¸ Sekil 39: Destek vektör makinesi için ilgili çekirde˘gin seçimi 
49
Altta bulunan ¸ Sekil 40 de ise lineer regression yöntemi kullanılarak veriler i¸slenmistir. 
¸ Sekil 40: Lineer regression yöntemi kullanılarak ilgili verilerin do˘gruya uydurulması 
¸ Sekil 41,42 de ise Ysa adi altında çka algoritması kullanılarak i¸sleme,ve ¸ Sekil 43,44 de ki 
gibi katmanlar görüntülenmi¸stir. 
50
¸ Sekil 41: Çok katmanlı algılayıcı yöntemi kullanılarak veri i¸sleme 
¸ Sekil 42: ˙Iris’e ait olan verilerin mla ile i¸slenmesi 
51
¸ Sekil 43: Mla yönteminde katmanların gösterilmesi 
¸ Sekil 44: Mla’da i¸slenen verinin algılayıcı katmanları 
52
futbol.arff,iris.arff veri kümelerinin ¸ Sekil 45 ve ¸ Sekil 46 de ise naive bayes, kullanılarak 
ve ise ¸ Sekil 47 ve ¸ Sekil 48 de bayes a˘gları ile i¸slenmi¸stir. 
¸ Sekil 45: Bayes yöntemi ile veri i¸slenmesi 
¸ Sekil 46: ˙Iris’e ait verilerin bayes ile i¸slenmesi 
53
¸ Sekil 47: Naive bayes yöntemi ile i¸slenmesi 
¸ Sekil 48: ˙Iris’e ait verilerin naive bayes yöntemi ile i¸slenmesi 
Ö˘grenmesiz ö˘grenme yöntemi olan k-means ile veri sınıflandırması ¸ Sekil 49 deki gibi 
gerceklenmi¸stir. 
54
¸ Sekil 49: Ö˘grenme yöntemi olan k-means ile sınıflandırma 
Son olarak birden çok olan sınıflama algoritmalarının veri tipinin büyüklü˘gü,verideki 
alanların çoklu˘gu verisetinin lineer olarak sınıflandırılıp sınıflandırılamadı˘gı,veride yan-lı 
¸s sınıflandırmaların olması gibi ölçütlere ba˘glı olarak ¸ Sekil 50’deki gibi sınıflandırma 
tipleri seçilebilir. 
¸ Sekil 50: Veri setinin büyüklü˘gü,sınıflandırılacak olan alanın kaç farklı tipi ol-du 
˘gu,alanların sayısına göre sınıflandırma algoritmalarının ba¸sarımı 
55
Kaynaklar 
[1] http://tr.wikipedia.org/wiki/Veri_madencili˘gi 
[2] Öztemel, E., 2006, Yapay Sinir A˘gları, Papatya Yayıncılık, ˙Istanbul 
[3] http://www.ninova.itu.edu.tr/EgitimDetay.aspx?eId=195 
[4] Dr.Banu Diri’a ait kaynaklardan alınmı¸stır. 
[5] http://dms.irb.hr/tutorial/tut_dtrees.php 
[6] O. T. Yıldız, E. Alpaydın, Univariate and Multivariate Decision Trees, Tainn 2000 
[7] http://www.kernel-machines.org/ 
[8] Doç. Dr. ¸ Sule Gündüz Ö˘güdücü’e ait kaynaktan alınmı¸stır. 
[9] An Introduction to the WEKA Data Mining System 
[10] http://sourceforge.net/projects/weka/files/ 
documentation/3.7.x/WekaManual-3-7-11.pdf/download? 
use_mirror=garrdownload= 
[11] http://okulsel.net/docs/index-23863.html?page=4 
[12] Yrd.Doç.Dr Umut Orhan’a ait kaynaklardan alınmı¸stır. 
[13] www.slideshare.com 
[14] CLARA (Kaufmann  Rousseeuw, 1990) CLARANS (Ng  Han, 1994) 
56
ÖZGEÇM˙I 
¸S 
K˙I 
¸S˙ISEL B˙ILG˙ILER 
Adı Soyadı :Mustafa Köstek 
Uyru˘gu : T.C 
Do˘gum Yeri ve Tarihi: Çayıralan 09/05/1993 
Adres : Balıkesir 
——- 
Telefon : 5549935366 
e-mail : mustafakostek@gmail.com 
E˘G 
˙IT˙IM DURUMU 
Lisans Ö˘grenimi : Bilecik ¸Seyh Edebali Üniverstesi, Bilecik 
Bitirme Yılı : 2015 
Lise : T.C Balıkesir Edremit Anadolu Lisesi 
˙I 
¸S DENEY˙IMLER˙I 
Yıl : 
Kurum : ——- 
Stajlar : ˙Izsu stajyer 
˙ILG˙I 
ALANLARI 
YABANCI D˙ILLER : ˙Ingilizce 
57

More Related Content

What's hot

Analog devre elemanları
Analog devre elemanlarıAnalog devre elemanları
Analog devre elemanlarıErol Dizdar
 
Flashplatform optimizing content türkçe
Flashplatform optimizing content türkçeFlashplatform optimizing content türkçe
Flashplatform optimizing content türkçe
deniz armutlu
 
SAP PP İçindekiler
SAP PP İçindekilerSAP PP İçindekiler
SAP PP İçindekiler
Erdi AKSOY_MBA
 
Adobe Flash as3 actionscript 3 ile programlama türkçe
Adobe Flash as3 actionscript 3 ile programlama türkçeAdobe Flash as3 actionscript 3 ile programlama türkçe
Adobe Flash as3 actionscript 3 ile programlama türkçe
deniz armutlu
 
Proje Kontrol Açıklamalı El Kitabı v.02.01
Proje Kontrol Açıklamalı El Kitabı v.02.01Proje Kontrol Açıklamalı El Kitabı v.02.01
Proje Kontrol Açıklamalı El Kitabı v.02.01
Yusuf Yıldız
 
Beyaz Şapkalı Hacker Eğitimi Yardımcı Ders Notları
Beyaz Şapkalı Hacker Eğitimi Yardımcı Ders NotlarıBeyaz Şapkalı Hacker Eğitimi Yardımcı Ders Notları
Beyaz Şapkalı Hacker Eğitimi Yardımcı Ders Notları
BGA Cyber Security
 
Adobe actionscript 3.0 programlama türkçe
Adobe actionscript 3.0 programlama türkçeAdobe actionscript 3.0 programlama türkçe
Adobe actionscript 3.0 programlama türkçe
deniz armutlu
 
DoS DDoS Saldırıları ve Korunma Yöntemleri Kitabı
DoS DDoS Saldırıları ve Korunma Yöntemleri KitabıDoS DDoS Saldırıları ve Korunma Yöntemleri Kitabı
DoS DDoS Saldırıları ve Korunma Yöntemleri Kitabı
BGA Cyber Security
 
Grup 2 b170100014_alperen dobrucalı tasarım çalışması
Grup 2 b170100014_alperen dobrucalı  tasarım çalışmasıGrup 2 b170100014_alperen dobrucalı  tasarım çalışması
Grup 2 b170100014_alperen dobrucalı tasarım çalışması
Bayram7
 
B170100067 tasarim
B170100067 tasarimB170100067 tasarim
B170100067 tasarim
Bayram7
 

What's hot (16)

Fireworks cs5 help
Fireworks cs5 helpFireworks cs5 help
Fireworks cs5 help
 
Visual studio
Visual studioVisual studio
Visual studio
 
Analog devre elemanları
Analog devre elemanlarıAnalog devre elemanları
Analog devre elemanları
 
Flashplatform optimizing content türkçe
Flashplatform optimizing content türkçeFlashplatform optimizing content türkçe
Flashplatform optimizing content türkçe
 
SAP PP İçindekiler
SAP PP İçindekilerSAP PP İçindekiler
SAP PP İçindekiler
 
Adobe Flash as3 actionscript 3 ile programlama türkçe
Adobe Flash as3 actionscript 3 ile programlama türkçeAdobe Flash as3 actionscript 3 ile programlama türkçe
Adobe Flash as3 actionscript 3 ile programlama türkçe
 
Proje Kontrol Açıklamalı El Kitabı v.02.01
Proje Kontrol Açıklamalı El Kitabı v.02.01Proje Kontrol Açıklamalı El Kitabı v.02.01
Proje Kontrol Açıklamalı El Kitabı v.02.01
 
Beyaz Şapkalı Hacker Eğitimi Yardımcı Ders Notları
Beyaz Şapkalı Hacker Eğitimi Yardımcı Ders NotlarıBeyaz Şapkalı Hacker Eğitimi Yardımcı Ders Notları
Beyaz Şapkalı Hacker Eğitimi Yardımcı Ders Notları
 
Adobe actionscript 3.0 programlama türkçe
Adobe actionscript 3.0 programlama türkçeAdobe actionscript 3.0 programlama türkçe
Adobe actionscript 3.0 programlama türkçe
 
Photoshop cs5 help part 0001
Photoshop cs5 help part 0001Photoshop cs5 help part 0001
Photoshop cs5 help part 0001
 
Flash cs5 help
Flash cs5 helpFlash cs5 help
Flash cs5 help
 
DoS DDoS Saldırıları ve Korunma Yöntemleri Kitabı
DoS DDoS Saldırıları ve Korunma Yöntemleri KitabıDoS DDoS Saldırıları ve Korunma Yöntemleri Kitabı
DoS DDoS Saldırıları ve Korunma Yöntemleri Kitabı
 
213 gim016
213 gim016213 gim016
213 gim016
 
Grup 2 b170100014_alperen dobrucalı tasarım çalışması
Grup 2 b170100014_alperen dobrucalı  tasarım çalışmasıGrup 2 b170100014_alperen dobrucalı  tasarım çalışması
Grup 2 b170100014_alperen dobrucalı tasarım çalışması
 
B170100067 tasarim
B170100067 tasarimB170100067 tasarim
B170100067 tasarim
 
Illustrator cs5 help part 0001
Illustrator cs5 help part 0001Illustrator cs5 help part 0001
Illustrator cs5 help part 0001
 

Viewers also liked

Görüntü i̇şlemede makine öğrenme teknikleri
Görüntü i̇şlemede makine öğrenme teknikleriGörüntü i̇şlemede makine öğrenme teknikleri
Görüntü i̇şlemede makine öğrenme teknikleriTalha Kabakus
 
Naive Bayes Sınıflandırma Uygulaması
Naive Bayes Sınıflandırma UygulamasıNaive Bayes Sınıflandırma Uygulaması
Naive Bayes Sınıflandırma Uygulaması
Harun Çetin
 
Veri madenciliği teknikleri ile öğrenci segmentasyonu
Veri madenciliği teknikleri ile öğrenci segmentasyonuVeri madenciliği teknikleri ile öğrenci segmentasyonu
Veri madenciliği teknikleri ile öğrenci segmentasyonu
Gülay Ekren
 
forest optmization algorithm
forest optmization algorithmforest optmization algorithm
forest optmization algorithm
mustafa köstek
 
Destek vektör makineleri
Destek vektör makineleriDestek vektör makineleri
Destek vektör makineleri
ozgur_dolgun
 
Machine Learning for Malware Classification and Clustering
Machine Learning for Malware Classification and ClusteringMachine Learning for Malware Classification and Clustering
Machine Learning for Malware Classification and Clustering
EndgameInc
 
Malware Detection - A Machine Learning Perspective
Malware Detection - A Machine Learning PerspectiveMalware Detection - A Machine Learning Perspective
Malware Detection - A Machine Learning Perspective
Chong-Kuan Chen
 
Malware Detection Using Machine Learning Techniques
Malware Detection Using Machine Learning TechniquesMalware Detection Using Machine Learning Techniques
Malware Detection Using Machine Learning Techniques
ArshadRaja786
 
Malware Detection using Machine Learning
Malware Detection using Machine Learning	Malware Detection using Machine Learning
Malware Detection using Machine Learning
Cysinfo Cyber Security Community
 
Artificial neural network
Artificial neural networkArtificial neural network
Artificial neural network
mustafa aadel
 

Viewers also liked (11)

Görüntü i̇şlemede makine öğrenme teknikleri
Görüntü i̇şlemede makine öğrenme teknikleriGörüntü i̇şlemede makine öğrenme teknikleri
Görüntü i̇şlemede makine öğrenme teknikleri
 
Naive Bayes Sınıflandırma Uygulaması
Naive Bayes Sınıflandırma UygulamasıNaive Bayes Sınıflandırma Uygulaması
Naive Bayes Sınıflandırma Uygulaması
 
Veri madenciliği teknikleri ile öğrenci segmentasyonu
Veri madenciliği teknikleri ile öğrenci segmentasyonuVeri madenciliği teknikleri ile öğrenci segmentasyonu
Veri madenciliği teknikleri ile öğrenci segmentasyonu
 
forest optmization algorithm
forest optmization algorithmforest optmization algorithm
forest optmization algorithm
 
Apriori algoritması
Apriori algoritmasıApriori algoritması
Apriori algoritması
 
Destek vektör makineleri
Destek vektör makineleriDestek vektör makineleri
Destek vektör makineleri
 
Machine Learning for Malware Classification and Clustering
Machine Learning for Malware Classification and ClusteringMachine Learning for Malware Classification and Clustering
Machine Learning for Malware Classification and Clustering
 
Malware Detection - A Machine Learning Perspective
Malware Detection - A Machine Learning PerspectiveMalware Detection - A Machine Learning Perspective
Malware Detection - A Machine Learning Perspective
 
Malware Detection Using Machine Learning Techniques
Malware Detection Using Machine Learning TechniquesMalware Detection Using Machine Learning Techniques
Malware Detection Using Machine Learning Techniques
 
Malware Detection using Machine Learning
Malware Detection using Machine Learning	Malware Detection using Machine Learning
Malware Detection using Machine Learning
 
Artificial neural network
Artificial neural networkArtificial neural network
Artificial neural network
 

Similar to makine öğrenmesi sınıflandırma(öğrenmeli öğrenme) yöntemlerinin weka ortamında uygulanması

Adobe Flash ActionScript 3 components help Türkçe
Adobe Flash ActionScript 3 components help TürkçeAdobe Flash ActionScript 3 components help Türkçe
Adobe Flash ActionScript 3 components help Türkçe
deniz armutlu
 
Flash as3 bileşenlerini kullanma
Flash as3 bileşenlerini kullanmaFlash as3 bileşenlerini kullanma
Flash as3 bileşenlerini kullanma
deniz armutlu
 
Beyazsapkalihackeregitimikitap 140409071714-phpapp02
Beyazsapkalihackeregitimikitap 140409071714-phpapp02Beyazsapkalihackeregitimikitap 140409071714-phpapp02
Beyazsapkalihackeregitimikitap 140409071714-phpapp02
Öncü Furkan
 
BGA- BEYAZ SAPKALI HACKER EGITIMI
BGA- BEYAZ SAPKALI HACKER EGITIMIBGA- BEYAZ SAPKALI HACKER EGITIMI
BGA- BEYAZ SAPKALI HACKER EGITIMI
Dr. Hayati Tastan (1526+)
 
Beyazsapkalihackeregitimikitap2
Beyazsapkalihackeregitimikitap2Beyazsapkalihackeregitimikitap2
Beyazsapkalihackeregitimikitap2
oxioxi3
 
Adobe Flash ActionScript 3 Programlama Türkçe
Adobe Flash ActionScript 3 Programlama TürkçeAdobe Flash ActionScript 3 Programlama Türkçe
Adobe Flash ActionScript 3 Programlama Türkçe
deniz armutlu
 
FPGA MİMARİSİ ve TARİHİ GELİŞİMİ
FPGA MİMARİSİ ve TARİHİ GELİŞİMİFPGA MİMARİSİ ve TARİHİ GELİŞİMİ
FPGA MİMARİSİ ve TARİHİ GELİŞİMİ
AliMETN
 
Adobe Fireworks CS5 Türkçe Yardım Kitapçığı
Adobe Fireworks CS5 Türkçe Yardım KitapçığıAdobe Fireworks CS5 Türkçe Yardım Kitapçığı
Adobe Fireworks CS5 Türkçe Yardım Kitapçığı
deniz armutlu
 
Adobe Fireworks CS4 Kullanım Kitapçığı Türkçe
Adobe Fireworks CS4 Kullanım Kitapçığı TürkçeAdobe Fireworks CS4 Kullanım Kitapçığı Türkçe
Adobe Fireworks CS4 Kullanım Kitapçığı Türkçe
deniz armutlu
 
Avid hd omni tr
Avid hd omni trAvid hd omni tr
Avid hd omni tr
Radikal Ltd.
 
Iç donanım birimleri
Iç donanım birimleriIç donanım birimleri
Iç donanım birimleriErol Dizdar
 
Avid Pro Tools HD Native Kullanici Kilavuzu v90_69708
Avid Pro Tools HD Native Kullanici Kilavuzu v90_69708Avid Pro Tools HD Native Kullanici Kilavuzu v90_69708
Avid Pro Tools HD Native Kullanici Kilavuzu v90_69708
Radikal Ltd.
 
Sunucu işletim sistemi 1
Sunucu işletim sistemi 1Sunucu işletim sistemi 1
Sunucu işletim sistemi 1Erol Dizdar
 
Tolga Saglam - ISITMA/HAVALANDIRMA OTOMASYONUN NOVAPROOPEN SCADA İLE GERÇEKLE...
Tolga Saglam - ISITMA/HAVALANDIRMA OTOMASYONUN NOVAPROOPEN SCADA İLE GERÇEKLE...Tolga Saglam - ISITMA/HAVALANDIRMA OTOMASYONUN NOVAPROOPEN SCADA İLE GERÇEKLE...
Tolga Saglam - ISITMA/HAVALANDIRMA OTOMASYONUN NOVAPROOPEN SCADA İLE GERÇEKLE...
tolgasaglam
 
Teknik resim ve çizim teknolojileri 520 tc0005 (1)
Teknik resim ve çizim teknolojileri 520 tc0005 (1)Teknik resim ve çizim teknolojileri 520 tc0005 (1)
Teknik resim ve çizim teknolojileri 520 tc0005 (1)Iklimlendirme Sogutma
 
Adobe Photoshop cs5 ı kullanma
Adobe Photoshop cs5 ı kullanma Adobe Photoshop cs5 ı kullanma
Adobe Photoshop cs5 ı kullanma
deniz armutlu
 

Similar to makine öğrenmesi sınıflandırma(öğrenmeli öğrenme) yöntemlerinin weka ortamında uygulanması (20)

Adobe Flash ActionScript 3 components help Türkçe
Adobe Flash ActionScript 3 components help TürkçeAdobe Flash ActionScript 3 components help Türkçe
Adobe Flash ActionScript 3 components help Türkçe
 
Flash as3 bileşenlerini kullanma
Flash as3 bileşenlerini kullanmaFlash as3 bileşenlerini kullanma
Flash as3 bileşenlerini kullanma
 
Beyazsapkalihackeregitimikitap 140409071714-phpapp02
Beyazsapkalihackeregitimikitap 140409071714-phpapp02Beyazsapkalihackeregitimikitap 140409071714-phpapp02
Beyazsapkalihackeregitimikitap 140409071714-phpapp02
 
BGA- BEYAZ SAPKALI HACKER EGITIMI
BGA- BEYAZ SAPKALI HACKER EGITIMIBGA- BEYAZ SAPKALI HACKER EGITIMI
BGA- BEYAZ SAPKALI HACKER EGITIMI
 
Beyazsapkalihackeregitimikitap2
Beyazsapkalihackeregitimikitap2Beyazsapkalihackeregitimikitap2
Beyazsapkalihackeregitimikitap2
 
Adobe Flash ActionScript 3 Programlama Türkçe
Adobe Flash ActionScript 3 Programlama TürkçeAdobe Flash ActionScript 3 Programlama Türkçe
Adobe Flash ActionScript 3 Programlama Türkçe
 
FPGA MİMARİSİ ve TARİHİ GELİŞİMİ
FPGA MİMARİSİ ve TARİHİ GELİŞİMİFPGA MİMARİSİ ve TARİHİ GELİŞİMİ
FPGA MİMARİSİ ve TARİHİ GELİŞİMİ
 
Adobe Fireworks CS5 Türkçe Yardım Kitapçığı
Adobe Fireworks CS5 Türkçe Yardım KitapçığıAdobe Fireworks CS5 Türkçe Yardım Kitapçığı
Adobe Fireworks CS5 Türkçe Yardım Kitapçığı
 
Adobe Fireworks CS4 Kullanım Kitapçığı Türkçe
Adobe Fireworks CS4 Kullanım Kitapçığı TürkçeAdobe Fireworks CS4 Kullanım Kitapçığı Türkçe
Adobe Fireworks CS4 Kullanım Kitapçığı Türkçe
 
Avid hd omni tr
Avid hd omni trAvid hd omni tr
Avid hd omni tr
 
Iç donanım birimleri
Iç donanım birimleriIç donanım birimleri
Iç donanım birimleri
 
Trt staj 2
Trt staj 2Trt staj 2
Trt staj 2
 
Avid Pro Tools HD Native Kullanici Kilavuzu v90_69708
Avid Pro Tools HD Native Kullanici Kilavuzu v90_69708Avid Pro Tools HD Native Kullanici Kilavuzu v90_69708
Avid Pro Tools HD Native Kullanici Kilavuzu v90_69708
 
213 gim298
213 gim298213 gim298
213 gim298
 
Sunucu işletim sistemi 1
Sunucu işletim sistemi 1Sunucu işletim sistemi 1
Sunucu işletim sistemi 1
 
Tolga Saglam - ISITMA/HAVALANDIRMA OTOMASYONUN NOVAPROOPEN SCADA İLE GERÇEKLE...
Tolga Saglam - ISITMA/HAVALANDIRMA OTOMASYONUN NOVAPROOPEN SCADA İLE GERÇEKLE...Tolga Saglam - ISITMA/HAVALANDIRMA OTOMASYONUN NOVAPROOPEN SCADA İLE GERÇEKLE...
Tolga Saglam - ISITMA/HAVALANDIRMA OTOMASYONUN NOVAPROOPEN SCADA İLE GERÇEKLE...
 
Sismik Kayıtçı DAQlink
Sismik Kayıtçı DAQlinkSismik Kayıtçı DAQlink
Sismik Kayıtçı DAQlink
 
Teknik resim 520 tc0005 (1)
Teknik resim 520 tc0005 (1)Teknik resim 520 tc0005 (1)
Teknik resim 520 tc0005 (1)
 
Teknik resim ve çizim teknolojileri 520 tc0005 (1)
Teknik resim ve çizim teknolojileri 520 tc0005 (1)Teknik resim ve çizim teknolojileri 520 tc0005 (1)
Teknik resim ve çizim teknolojileri 520 tc0005 (1)
 
Adobe Photoshop cs5 ı kullanma
Adobe Photoshop cs5 ı kullanma Adobe Photoshop cs5 ı kullanma
Adobe Photoshop cs5 ı kullanma
 

makine öğrenmesi sınıflandırma(öğrenmeli öğrenme) yöntemlerinin weka ortamında uygulanması

  • 1. T.C. B˙ILEC˙IK ¸SEYH EDEBAL˙I ÜN˙IVERS˙ITES˙I MÜHEND˙ISL˙IK FAKÜLTES˙I B˙ILG˙ISAYAR MÜHEND˙ISL˙I ˘G ˙I Makine Ö˘grenme Yöntemlerinin Ara¸stırılması ve Uygulanması MUSTAFA KÖSTEK Proje 1 12 Haziran 2014 B˙ILEC˙IK
  • 2. T.C. B˙ILEC˙IK ¸SEYH EDEBAL˙I ÜN˙IVERS˙ITES˙I MÜHEND˙ISL˙IK FAKÜLTES˙I B˙ILG˙ISAYAR MÜHEND˙ISL˙I ˘G ˙I Makine Ö˘grenme Yöntemlerinin Ara¸stırılması ve Uygulanması MUSTAFA KÖSTEK Proje 1 12 Haziran 2014 B˙ILEC˙IK
  • 3. ÖZET Projenin Amacı Makine ö˘grenme yöntemleri adı altında çe¸sitli algoritmaların ö˘grenilmesi ve ilgili simü-lasyon programı aracılı˘gıyla uygun algoritmanın kullanılması ve sonuçların analiz edil-mesi. Projenin Kapsamı Makine ö˘grenme yöntemleri ve kullanım alanları ele almaktadır.Öncelikle konumuz da-hilindeki sınıflandırma yöntemlerine de˘ginilecek sonra ise ilgili simulator programı ara-cılı ˘gıyla ilgili veriler i¸slenip,proje çıktısı analiz edilecektir. Sonuçlar Simulator ortamında makine ö˘grenme yöntemleri uygulanarak yöntemlerin verdi˘gi ce-vapların kıyaslanmı¸stır. ii
  • 4. ABSTRACT Project Objective Under the name of machine learning methods to learn a variety of algorithms and related simulation programs through the use of appropriate algorithms and analysis of results. Scope of Project Machine learning methods and uses are discussed.First, the issues will be referred to the methods of classification within our respective related data is processed through the simulator program, project outcomes will be analyzed. Results Simulator environment by applying methods of machine learning methods in the compa-rison of the answers. iii
  • 5. TE¸SEKKÜR Bu projenin ba¸sından sonuna kadar hazırlanmasında eme˘gi bulunan ve beni bu konuya yönlendiren saygıde˘ger hocam ve danı¸smanım Sayın Emre Dandil’e tüm katkılarından ve hiç eksiltmedi˘gi deste˘ginden dolayı te¸sekkür ederim. Mustafa Köstek 12 Haziran 2014 iv
  • 6. ˙Içindekiler ÖZET ii ABSTRACT iii TE¸SEKKÜR iv ¸SEK˙IL L˙ISTES˙I viii TABLO L˙ISTES˙I ix 1 G˙IR˙I ¸S 1 1.1 Makine ö˘grenmesi nedir? . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Makine ö˘grenmesi algoritmaları . . . . . . . . . . . . . . . . . . . . . . 1 2 Ö˘grenmeli Ö˘grenme(Classification) 2 2.1 Sınıflandırma geçerlili˘gi . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2.1.1 Rasgele örnekleme . . . . . . . . . . . . . . . . . . . . . . . . . 2 2.1.2 K Parçalı . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2.1.3 Birini hariç tut . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2.2 E˘gri uydurma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2.3 Karar a˘gaçları . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.4 Bayes teoremi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.4.1 Naive bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.4.2 Bayes a˘gları . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.5 YSA(Yapay sinir a˘gları) . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.5.1 Çok katmanlı algılayıcılar . . . . . . . . . . . . . . . . . . . . . 18 2.5.2 Radyal tabanlı sinir a˘gları . . . . . . . . . . . . . . . . . . . . . . 18 2.6 Destek vektör makinesi . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3 Ö˘grenmesiz Ö˘grenme(Clustering) 22 3.1 Bölünmeli yöntemler . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3.1.1 k-kom¸su(k-means) . . . . . . . . . . . . . . . . . . . . . . . . . 24 v
  • 7. 3.1.2 K-medoids demetleme yöntemi . . . . . . . . . . . . . . . . . . . 26 3.2 Hiyerar¸sik yöntemler . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.3 Yo˘gunluk tabanlı yöntemler . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.3.1 DBSCAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.4 Model tabanlı demetleme yöntemleri . . . . . . . . . . . . . . . . . . . . 31 3.4.1 EM algoritması . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 4 ˙Ili¸skili(Associate) 33 4.1 Appriori(ili¸skilendirme) . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 5 Weka 35 5.1 Ortam tanıtımı . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 5.2 Veri alınması . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 5.2.1 Kullanaca˘gımız yöntemler . . . . . . . . . . . . . . . . . . . . . 37 5.3 Kullanılan yöntemlerin cevap açıklamaları . . . . . . . . . . . . . . . . . 39 5.4 Görsel komponentlerle i¸sleme . . . . . . . . . . . . . . . . . . . . . . . 40 5.4.1 Nereden yapılır? . . . . . . . . . . . . . . . . . . . . . . . . . . 40 5.4.2 Yükleme(loader) Durumu . . . . . . . . . . . . . . . . . . . . . 41 5.4.3 Kayıt ediciler . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 5.4.4 Filtreler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 5.4.5 Sınıflayıcılar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 5.4.6 Demetleyiciler . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 5.4.7 ˙Ili¸skilendirmeler . . . . . . . . . . . . . . . . . . . . . . . . . . 43 5.4.8 Konvertör komponentler . . . . . . . . . . . . . . . . . . . . . . 43 5.4.9 Görsel komponentler . . . . . . . . . . . . . . . . . . . . . . . . 43 SONUÇLAR 47 KAYNAKLAR 56 ÖZGEÇM˙I ¸S 57 vi
  • 8. ¸ Sekil Listesi 1 Bir do˘gru olarak temsil edilen veri kümesi . . . . . . . . . . . . . . . . . 3 2 A˘gaç sınıflandırma yöntemi . . . . . . . . . . . . . . . . . . . . . . . . . 4 3 Seri ¸sekilde yollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 4 Ayrılmı¸s ¸sekildeki yollar . . . . . . . . . . . . . . . . . . . . . . . . . . 12 5 Birle¸sen yollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 6 Bayes a˘glarında söz konusu dört durum) . . . . . . . . . . . . . . . . . . 13 7 Yapay sinir a˘g katmanları(perseptronlar) . . . . . . . . . . . . . . . . . . 14 8 Yapay sinir a˘gının yakla¸sımı . . . . . . . . . . . . . . . . . . . . . . . . 15 9 Ysa’nın ö˘grenme ¸sekli . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 10 Ysa’nın aktivasyon fonksiyonu . . . . . . . . . . . . . . . . . . . . . . . 16 11 Radyal tabanlı nöron . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 12 Radyal tabanlı fonksiyon . . . . . . . . . . . . . . . . . . . . . . . . . . 19 13 Radyal tabanlı a˘g topolojisi . . . . . . . . . . . . . . . . . . . . . . . . . 20 14 Destek vektör makinesi ile ayırma . . . . . . . . . . . . . . . . . . . . . 20 15 Lineer olarak ayrılamayan verilerin sınıflandırılması . . . . . . . . . . . . 22 16 Waikato üniversitesi tarafından geli¸stirilmi¸s bir makine ö˘grenme simülas-yonu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 17 Seçilen veri kümesinin öni¸slemeye tabi tutulması için gereken form ekranı 36 18 Weka’da arff dosya formatının veri yapısı,veriler . . . . . . . . . . . . . . 37 19 Weka’da veri ön i¸sleme ekranı . . . . . . . . . . . . . . . . . . . . . . . 38 20 Sol alttaki çekbaksların seçilerek ilgili istatistiklerin gösterilmesi . . . . . 38 21 Wekada ö˘grenmeli ö˘grenmede pratik yöntemleri . . . . . . . . . . . . . . 39 22 Weka’da knowledge flow butonu . . . . . . . . . . . . . . . . . . . . . . 41 23 Data Source sekmesi içeri˘gi . . . . . . . . . . . . . . . . . . . . . . . . . 41 24 Data Sink sekmesi içeri˘gi . . . . . . . . . . . . . . . . . . . . . . . . . . 42 25 Filtreler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 26 Data Classifier sekmesi . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 27 Data Clusterer sekmesi . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 28 Data Associate sekmesi . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 vii
  • 9. 29 Data Evaluation sekmesi . . . . . . . . . . . . . . . . . . . . . . . . . . 43 30 Data Visualization sekmesi . . . . . . . . . . . . . . . . . . . . . . . . . 44 31 J48 karar a˘gacından olu¸san bir sistem . . . . . . . . . . . . . . . . . . . . 45 32 Bayes ö˘grenmesini ili¸skin sistem . . . . . . . . . . . . . . . . . . . . . . 45 33 Ö˘grenmesiz ö˘grenme yöntemi olan k-means kullanımı . . . . . . . . . . 46 34 ÇKA’lı bir simulasyon arayüzü . . . . . . . . . . . . . . . . . . . . . . . 46 35 A˘gaç sınıflandırma metodu kullanarak verilerin i¸slenmesi . . . . . . . . . 47 36 Wekada j48 a˘gaç metodu ile karar a˘gacının görüntülenmesi . . . . . . . . 48 37 ˙Ilgili veri kümesinin karar a˘gacı . . . . . . . . . . . . . . . . . . . . . . 48 38 Destek vektör makinesi(bu programdaki adıyla "smo") yöntemi kullanıla-rak veri i¸sleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 39 Destek vektör makinesi için ilgili çekirde˘gin seçimi . . . . . . . . . . . . 49 40 Lineer regression yöntemi kullanılarak ilgili verilerin do˘gruya uydurul-ması . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 41 Çok katmanlı algılayıcı yöntemi kullanılarak veri i¸sleme . . . . . . . . . 51 42 ˙Iris’e ait olan verilerin mla ile i¸slenmesi . . . . . . . . . . . . . . . . . . 51 43 Mla yönteminde katmanların gösterilmesi . . . . . . . . . . . . . . . . . 52 44 Mla’da i¸slenen verinin algılayıcı katmanları . . . . . . . . . . . . . . . . 52 45 Bayes yöntemi ile veri i¸slenmesi . . . . . . . . . . . . . . . . . . . . . . 53 46 ˙Iris’e ait verilerin bayes ile i¸slenmesi . . . . . . . . . . . . . . . . . . . . 53 47 Naive bayes yöntemi ile i¸slenmesi . . . . . . . . . . . . . . . . . . . . . 54 48 ˙Iris’e ait verilerin naive bayes yöntemi ile i¸slenmesi . . . . . . . . . . . . 54 49 Ö˘grenme yöntemi olan k-means ile sınıflandırma . . . . . . . . . . . . . 55 50 Veri setinin büyüklü˘gü,sınıflandırılacak olan alanın kaç farklı tipi oldu˘gu,alanların sayısına göre sınıflandırma algoritmalarının ba¸sarımı . . . . . . . . . . . 55 viii
  • 10. Tablo Listesi 1 m ve uzun,orta,kısa niceliklerinden olu¸san veriler . . . . . . . . . . . . . 4 2 Örnek veri setimiz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 3 Gün,havadurumu,sicaklik,nem,rüzgar ve oynama durumu ile ilgili veri kümesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 4 Hava durumuna ili¸skin alanların ko¸sullu olasılıkları . . . . . . . . . . . . 9 5 Ve kapısının giri¸s ve çıkı¸sları . . . . . . . . . . . . . . . . . . . . . . . . 14 6 Nesne ve o nesneye ait olan nicelikler(ö˘grenmesiz ö˘grenme) . . . . . . . 25 ix
  • 11. 1 G˙IR˙I ¸S 1.1 Makine ö˘grenmesi nedir? Çok büyük miktarlardaki verinin elle i¸slenmesi ve analizinin yapılması mümkün de˘gildir. Amaç geçmi¸steki verileri kullanarak gelecek için tahminlerde bulunmaktır. Bu problem-leri çözmek için Makine Ö˘grenmesi (machine learning) yöntemleri geli¸stirilmi¸stir. Ma-kine ö˘grenmesi yöntemleri, geçmi¸steki veriyi kullanarak yeni veri için en uygun modeli bulmaya çalı¸sır. Verinin incelenip, içerisinden i¸se yarayan bilginin çıkarılmasına [1]’e göre da Veri Madencili˘gi (data mining) adı verilir. 1.2 Makine ö˘grenmesi algoritmaları Farklı uygulamaların, analizlerden farklı beklentileri olmaktadır.Makine ö˘grenmesi me-totlarını bu beklentilere göre sınıflandırmak mümkündür. Amaç: Bir niteli˘gin de˘gerini di˘ger nitelikleri kullanarak belirlemek... verinin da˘gılımına göre bir model bulunur. bulunan model, ba¸sarımı belirlendikten sonra niteli˘gin gelecekteki ya da bilinmeyen de˘gerini tahmin etmek için kullanılır. model ba¸sarımı: do˘gru sınıflandırılmı¸s sınama kümesi örneklerinin oranı Veri madencili˘gi uygulamasında: ayrık nitelik de˘gerlerini tahmin etmek: sınıflandırma sürekli nitelik de˘gerlerini tahmin etmek: öngörü Gözetimli (Supervised) sınıflandırma = sınıflandırma Sınıfların sayısı ve hangi nesnenin hangi sınıfta oldu˘gu biliniyor. Gözetimsiz (Unsupervised) sınıflandırma = demetleme (clustering) Hangi nesnenin hangi sınıfta oldu˘gu bilinmiyor. Genelde sınıf sayısı bilinmiyor. 1
  • 12. 2 Ö˘grenmeli Ö˘grenme(Classification) 2.1 Sınıflandırma geçerlili˘gi Veriye dayalı olarak e˘gitim yapılmasının temel amacı [12]’ya göre e˘gitilen sistemin ben-zer konuda hiç bilinmeyen bir örne˘ge mantıklı bir cevap üretebilmesidir. Eldeki sınırlı veri kullanılarak sistemin hem e˘gitilmesi hem de ba¸sarısının tarafsız bir ¸sekilde ölçülebil-mesi gerekmektedir. Bunun için çapraz geçerlik (cross validation) adıyla anılan yöntemler kullanılmalıdır. Çapraz Geçerlilik bu temel prensibe dayanarak önerilmi¸s birkaç geçer-lik yöntemi vardır. Ama hepsinde temel mantık aynıdır. Sistemin ba¸sarısını ölçebilmek için mevcut veri kümesi ikiye bölünür. Birisi e˘gitim için (train set) di˘geri de sistemin hiç görmedi˘gi olası örnekleri temsilen (test set) kullanılır. Sistem, seçilen e˘gitim algoritması ile e˘gitim kümesini ö˘grenir. E˘gitilen sistemin ba¸sarısı daha sonra test kümesi üzerinde hesaplanır. 2.1.1 Rasgele örnekleme Rasgele örneklemede kümeler rasgele seçilir. Optimum ba¸sarı için birkaç kez tekrarlanır. Çapraz geçerlik içerisinde en yüksek ba¸sarıyı sa˘glayan yöntemdir. 2.1.2 K Parçalı K parçalıda veri, K adet kümeye ayrılır. Birisi test kümesi için ve di˘ger K-1 küme birle¸s-tirilip e˘gitim kümesi için seçilir. Bu i¸slem kümeler de˘gi¸stirilerek K kez tekrarlanır. Genel ba¸sarı için K adet ba¸sarı de˘gerinin ortalaması alınır. 2.1.3 Birini hariç tut Birini hariç tut yöntemi ile K parçalı geçerlik yöntemleri çok benzerdir. N adet örnek içeren veri kümesi için kullanılan birini hariç tut yöntemi K=N için K parçalı çapraz geçerlik gibi uygulanır. 2
  • 13. 2.2 E˘gri uydurma [4]’daki kaynaklardan alınan bilgiler geçmi¸s verilere ait sınıflar yerine sürekli bilginin yer aldı˘gı problemlerdir. x ekseni hava sıcaklı˘gını, y ekseni de deniz suyu sıcaklı˘gını gös-termektedir. Bizden istenen hava sıcaklı˘gına ba˘glı olarak deniz suyu sıcaklı˘gının tahmin edilmesidir. ¸ Sekil 1’de giri¸s ile çıkı¸s arasındaki fonksiyonun e˘grisi bulunmu¸stur. ¸ Sekil 1: Bir do˘gru olarak temsil edilen veri kümesi w0 + + wny = 0 (1) peki ya bu do˘gruyu makine nasıl çiziyor? (x) = 1 x + 2 (2) ˙Ifade 2 alınıp ifade 3’e fonksiyonu parametre olarak gönderilir. 3’de en küçük de˘geri veren 2 fonksiyonunu kabul eder. H() = 1 2 m Xm i=1 ((xi) yi)2 (3) Regresyon 1 nolu ifadeye göre en az hata yapan wi leri bulmaya çalı¸sır. Basit bir model Yeterince esnek de˘gil 3
  • 14. 2.3 Karar a˘gaçları Böl ve yönet stratejisi Nasıl bölece˘giz ? Ürettikleri kurallar anla¸sılır. Tablo 1: m ve uzun,orta,kısa niceliklerinden olu¸san veriler 1,73 orta 1,59 kısa 1,98 uzun 1,78 orta 1,65 orta 1,72 orta 1,69 orta ¸ Sekil 2: A˘gaç sınıflandırma yöntemi Yukarıda Tablo 1 te görüldü˘gü gibi bir veri kümesinin karar a˘gacı ¸ Sekil 2 deki gibi ola-caktır. Karar dü˘gümleri ve yapraklardan olu¸san hiyerar¸sik bir yapı. Karar A˘gaçları Olu¸sturma [6]’deki verilere göre tüm veri kümesiyle ba¸slanır. Bir özelli˘gin bir de˘gerine göre veri kümesi iki alt kümeye bölünür. Bölmede kulla-nılan özellikler ve de˘gerler karar dü˘güme yerle¸stirilir. 4
  • 15. Her alt küme için aynı prosedür, her alt kümede sadece tek bir sınıfa ait örnekler kalıncaya kadar uygulanır. Karar Dü˘gümleri Nasıl Bulunur ? Karar dü˘gümlerinde yer alan özelli˘gin ve e¸sik de˘gerinin belirlenmesinde genel ola-rak entropi kavramı kullanılır. [5]’den her bir özelli˘gin Bilgi Kazancı (information gain) hesaplanır. Negatif ve pozitif örneklerden olu¸san bir S kümesi olsun. S kümesinin Entropy’si hesaplanırken 4’deki ifade kullanılır. f(s) = p:logp q:logq (4) S kümesinde 14 örnek olsun: 9 pozitif ve 5 negatif ise, f(s) = (9=14):log9=14 (5=14):log5=14 = 0:94 4 nolu denklem yardımıyla seçilen iki alan ile 5 nolu bilgi kazancı formülü hesaplanır. Gain(s; a) = f(s) X vV alues(a) jsvj jsj :f (sv) (5) E˘gitim verisi her bir özelli˘gin her bir de˘geri için ikiye bölünür. Olu¸san iki alt kü-menin entropileri toplanır. En dü¸sük entropi toplamına sahip olan özellik ve de˘geri karar dü˘gümüne yerle¸stirilir. Örnek: 2 nolu tablodaki örneklerde pikni˘ge gitmenin hangi özelli˘gin en baskın oldu˘gunu bulalım. Tablo 2: Örnek veri setimiz Hava Nem Rüzgar Su sıcaklı˘gı Pikni˘ge gidelim güne¸sli normal güçlü ılık evet güne¸sli yüksek güçlü ılık evet ya˘gmurlu yüksek güçlü ılık hayır güne¸sli yüksek güçlü so˘guk evet 5
  • 16. Pikni˘ge gidildimi? gitme olasılıgı 3/4,gitmeme olasılı˘gı 1/4 f(piknik) = (3=4) log0:75 2 (1=4) log0:25 2 = 0:811 ile piknik ile her bir olayın ko¸sullu olasılı˘gı ile alınarak, 0,811 pikni˘ge gitme olayının entropisi 0,75 havanın güne¸sli olma olasılı˘gı 0 hava güne¸sli iken pikni˘ge gidilmeme oranı 1 havanın güne¸sli iken pikni˘ge gidilmesi 0,25 havanın ya˘gmurlu olma oranı 0 hava ya˘gmurlu iken pikni˘ge gidilme oranı 1 hava ya˘gmurlu iken pikni˘ge gidilmeme oranı Gain(piknik; hava) = 0:811 (0:75)(1 log1 2 0) (0:25)(0 1 log1 2) = 0:811 aynı ¸sekilde Gain(piknik; nem) = 0:811(0:25)(1log1 20)(0:75)(0:67log0:67 2 0:33log0:33 2 ) = 0:1225 Gain(piknik; ruzgar) = 0:811 1(0:75 log0:75 2 ) (0:25)(log0:25 2 0:33) = 0 Gain(piknik; susicaklik) = 0:811(0:75)(0:67log0:67 2 0:33log0:33 2 )1(1log1 2) = 0:1225 Bu i¸slemler sonucunda bilgi kazancı en büyük olan hava etkeni oldu˘gundan karar dü˘gü-münde en tepede hava etmeni bulunacaktır pikni˘ge gidilme olayı için. Karar A˘gaçlarıyla Sınıflandırma En tepedeki kök karar dü˘gümünden ba¸sla. 6
  • 17. Bir yapra˘ga gelinceye kadar karar dü˘gümlerindeki yönlendirmelere göre dallarda ilerle (Karar dü˘gümlerinde tek bir özelli˘gin adı ve bir e¸sik de˘geri yer alır. O dü- ˘güme gelen verinin hangi dala gidece˘gine verinin o dü˘gümdeki özelli˘ginin e¸sik de˘gerinden büyük ya da küçük olmasına göre karar verilir) Verinin sınıfı, yapra˘gın temsil etti˘gi sınıf olarak belirle. 2.4 Bayes teoremi Bir olayın meydana gelmesinde birden fazla etkenin olması ko¸sulunda [3]’den alınan-lardan, olayın hangi etkenin etkinli˘gi ile ortaya çıktı˘gını gösteren teorem 6 denklemi ile verilmi¸stir. p(hjd) = p(djh)p(h) p(d) (6) p(h)=h olayının önsel olasılı˘gı p(d)=d e˘gitim verisinin önsel olasılı˘gı p(djh)=h olayı verildi˘ginde d nin kosullu olasılı˘gı p(hjd)=d egitim verisi verildi˘ginde h nin ko¸sullu olasılı˘gı 2.4.1 Naive bayes ˙Istatistiksel bir sınıflandırıcıdır. ˙Istatistikteki bayes teoremine dayanır[3]. Örneklerin hangi sınıfa hangi olasılıkla ait olduklarını öngörür. Basit bir yöntemdir. Ö˘grenme zamanı yok-tur, yani sınıflandırmadan önce bir ba¸slangıç zamanı gerekmez. Her sınıflandırma için tüm veri kümesini i¸sler. Elimizde sınıfı belli olmayan bir örüntü olsun. Bu durumda x = [x(1); x(2); ; x(L)]T 2 RL (7) sınıfı belli olmayan örüntünün L-boyutlu nicelik vektörü 7 ifadesi ¸selinde olacak. Spam e-posta örne˘ginden gidecek olursak spam olup olmadı˘gını bilmedi˘gimiz yeni bir e-posta sınıfı belli olmayan örüntüdür. Yine Si x’in atanaca˘gı sınıf ise; 7
  • 18. Bayes karar teorisine göre x sınıf Si’ya aittir e˘ger P(xjSi) P(xjSj); 8j6= i di- ˘ger bir ifade ile P(xjSi)P(Si) P(xjSj)P(Sj); 8j6= i dir. Verilen bir x’in (x = [x(1); x(2); ; x(L)]T 2 RL) sınıf Si’ye ait olup olmadı˘gına karar vermek için kullanı-lan yukarıda formüle edilen Bayes karar teoreminde istatistik olarak ba˘gımsızlık önerme-sinden yararlanılırsa bu tip sınıflandırmaya Naive bayes sınıflandırılması denir.Matematiksel bir ifadeyle P(xjSi)P(Si) P(xjSj)P(Sj); 8j6= i ifadesindeki P(xjSi) terimi yeniden gibi yazılırsa 8 nolu ifade elde edilir. P(xjSi) YL k=1 P(xkjSi) (8) böylece Bayes karar teoremi 9 nolu ifade ¸seklini alır. Bayes karar teorisine göre x sınıf Si’ya aittir e˘ger P(xjSi) YL k=1 P(xkjSi) P(xjSj) YL k=1 P(xkjSj) (9) P(Si) ve P(Sj) i ve j sınıflarının öncel olasılıklarıdır. Elde olan veri kümesinden de- ˘gerleri kolayca hesaplanabilir. Naive bayes sınıflandırıcının kullanım alanı her nekadar kısıtlı gözüksede yüksek boyutlu uzayda ve yeterli sayıda veriyle x’in (nicelik kümesi) bile¸senlerinin istatistik olarak ba˘gımsız olması ko¸sulu esnetilerek ba¸sarılı sonuçlar elde edilebilinir. Tablo 3: Gün,havadurumu,sicaklik,nem,rüzgar ve oynama durumu ile ilgili veri kümesi Gün havadurumu sicaklikderecesi nemoranı ruzgar oynamadurumu d1 güne¸s sıcak yuksek zayıf hayır d2 güne¸s sıcak yuksek siddetli hayır d3 bulut sıcak yuksek zayıf evet d4 ya˘gmur ılık yuksek zayıf evet d5 ya˘gmur serin normal zayıf evet d6 ya˘gmur serin normal siddetli hayır d7 bulutlu serin normal siddetli evet d8 güne¸sli ılık yuksek zayıf hayır d9 güne¸sli serin normal zayıf evet d10 ya˘gmur ılık normal zayıf evet d11 güne¸s ılık normal siddetli evet d12 bulut ılık yuksek siddetli evet d13 bulut sıcak normal zayıf evet d14 ya˘gmur ılık yuksek siddetli hayır Tablo 3 de gerekli islemler yapilarak Tablo 4 elde edilir. 8
  • 19. Tablo 4: Hava durumuna ili¸skin alanların ko¸sullu olasılıkları havadurumu p(gunes|evet)=2/5 p(gunes|hayır)=3/5 p(bulut|evet)=4/4 p(bulut|hayır)=0 p(ya˘gmur|evet)=3/5 p(yagmur|hayır)=2/5 sıcaklık p(sıcak|evet)=2/4 p(sıcak|hayır)=3/4 p(ılık|evet)=4/6 p(ılık|hayır)=2/6 p(serin|evet)=3/4 p(serin|hayır)=1/4 nemoranı p(yuksek|evet)=3/7 p(yuksek|hayır)=4/7 p(normal|evet)=6/7 p(normal|hayır)=1/7 Ruzgar p(siddetli|evet)=3/6 p(siddetli|hayır)=3/6 p(zayıf|evet)=6/8 p(zayıf|hayır)=2/8 Bu a¸samadan sonra ko¸sullu olasılıklar hesap edilecektir. p(evet)=9/14 p(hayır)=5/15 Yeni örnek X =ya˘gmur,sıcak,yüksek,zayıf P(evet|X)=? P(ya˘gmurlu|evet)P(sıcak|evet)P(yüksek|evet)P(zayıf|evet)P(evet) 3/52/43/76/89/14 =0.062 P(hayır|X) = ? P(ya˘gmurlu|hayır)P(sıcak|hayır)P(yüksek|hayır)P(zayıf|hayır)P (hayır) 2/52/44/72/85/14 =0.01 P(evet|X)P(hayir|X) oldu˘gundan örnek X’in sınıfı evet olarak öngörülür. Kullanım Alanları Metin sınıflandırma, konu¸smacı tanıma sistemleri ¸sifre kontrolü uygulamaları ,orta veya geni¸s e˘gitim kümesinin mevcut,orta veya geni¸s e˘gitim kümesinin mevcut olması duru-munda ,örnekleri tanımlayan nitelikler, sınıflandırmadan ba˘gımsız olarak verildi˘ginde. Avantaj ve Dezavantajları Avantajları: Kolay uygulanabilirlik, üstün performans ço˘gu durumda iyi sonuçlar Dezavantajları: Varsayım,sınıf bilgisi verildi˘ginde nitelikler ba˘gımsız gerçek hayatta de- 9
  • 20. ˘gi¸skenler birbirine ba˘gımlı de˘gi¸skenler arası ili¸ski modellenemiyor, test verisinin uzun i¸slem zamanıdır. Çözüm: Bayes a˘gları 2.4.2 Bayes a˘gları [13]’de sunumlardan bayesçi a˘glarda dü˘gümler (nodes) rastlantı de˘gi¸skenlerini,dü˘gümler arasındaki ba˘glar(edges) ise rastlantı de˘gi¸skenleri arasındaki olasılıksal ba˘gımlılık du-rumlarını gösterir.Bayes a˘gları yönlü dönü¸ssüz grafik(Drected acyclic graph DAG) olarak bilinen bir grafiksel model yapısına sahiptir. Bu a˘glar kesin olmayan uzman görü¸slerinin sisteme girmesini sa˘glayan önemli bir yöntemdir.Bayes kuralındaki gibi ko¸sullu olasılık-ları yine kullanılacaktır.DAG yapısı dü˘gümler kümesi ve yönlendirilmi¸s ba˘glar kümesi olmak üzere iki kümeden olu¸sur.Dü˘gümler rastlantı de˘gi¸skenlerini temsil eder,daire bi-çiminde gösterilir.Ba˘glar ise de˘giskenleri arasındaki dogrudan ba˘glımlılıkları belirtir ve dü˘gümler arasında çizili oklarla gösterilir.xi ve xj agdaki iki dugum olmak üzere ,xi dü- ˘gümünden xj dü˘gümüne do˘gru çizilen bir ba˘g kar¸sılık geldikleri de˘gi¸skenler de˘gi¸skenler arasındaki istatistiksel ba˘gımlılı˘gın bir göstergesidir.xi dü˘gümünden xj dü˘gümünün ebe-veyni ,xj dü˘gümünün ise xi dü˘gümünün çocu˘gu oldu˘gu söylenebilir.Ayrıca ,a˘gdaki bir dü˘gümden çıkan dü˘güme gelen yol uzerinden yer alan dü˘gümler kümesine soy dü˘güm-ler, bir dü˘güme gelen yol üzerinde yer alan dü˘gümler kümesi ise ata dü˘gümler olarak tanımlanmı¸stır. X,y,z, rastlantı de˘gi¸skenleri tanım kümeleri sırasıyla ux; uy; uz bu rast-lantı de˘gi¸skenlerinin çok de˘gi¸skenli olasılık fonksiyonu Pxyz bu degiskenlerin aldıgı tüm x 2 ux; y 2 uy; z 2 uz de˘gerleri için Px;y;zx; y; z = Pxjzxjz Pyjzyjz Pzz yazılabili-yorsa z bilindi˘gine göre ,x ve y nin ko¸sullu ba˘gımsız oldugu söylenir ve x?yjz biçiminde yazılır.x?yjz ise Pyjzyjz 0 e¸sitsizliklerinin saglayan x 2 Ux; y 2 Uy; z 2 Uz tüm de˘gerleri için Pxjy;zxjy; z = Pxjz xjz yazılabilir. Grafın a˘gların niceliklerini olarak ta-nımlanan parametrelerin belirlenmesi gerekir.Bu parametreler a˘gdaki her bir dü˘güme ait ko¸sullu olasılıklar,yalnızca kendi ebeveynleri ba˘glı olarak tanımlanır.Bu tablolarda ebe-veynlerin aldıgı de˘gerleri alma olasılıkları yer alır.Bu tablolara ko¸sullu olasılık tablosu denir.Bayes a˘glarında ,bir X = x1; :::; xn rastlantı degi¸skenleri kümesine ili¸skin çok de- ˘gi¸skenli olasılık da˘gılımını temsil eden bir DAG tır.A˘g G ve Q olmak üzere iki bile¸senden 10
  • 21. olu¸sur.BN=GQ biçiminde gösterilir.˙Ilk bile¸sen G,dü˘gümlerin x1; :::; xn rastlantı de˘gi¸sken-lerini arasındakı do˘grudan ba˘gımlılık ları verecektir.Bayes a˘glarının ikinci bileseni Q, a˘g-daki parametrelerin kümesini gösterir.Bu parametreler,bayesçi a˘gdaki her bir x,rastlantı de˘gi¸skenine ili¸skin ko¸sullu olasılık da˘gılımlarıdır.Bir xi rastlantı de˘gi¸skeni için ko¸sullu olasılık da˘gılımı ,xi nin G deki ebeveynlerinin kümesi i,olmak üzere Qxiji = Pbnxiji biçiminde tanımlanır.Bir rastlantı de˘gi¸skeninin verilen bayesçi a˘gda bir ebeveyni yoksa bu rastlantı de˘gi¸skeni için ko¸sullu olasılık da˘gılımı ,marjinal olasılık da˘gılımına kar¸sılık gelir.Her bir de˘gi¸skene ait marjinal yada ko¸sullu olasılık da˘gılımları genel olarak yerel olasılıklar dagılımı olarak adlandırılır.Bu parametrelerden bayes a˘g yapısından yararla-nılarak x = x1; x2; xn için tek bir çok de˘gi¸skenli olasılık da˘gılımı tanımlanır ve bu da˘gılım a¸sa˘gıdaki e¸sitlikten yararlanılarak elde edilir.Çok de˘gi¸skenli olasılık da˘gılımının bu e¸sitli˘gi denklem 10 ile ifade edilir bu kural zincir kuralı olarak adlandırılır. Qx1; ;xn; Yn i=1 xiji; Yn i=1 Qxijn (10) Bir bayesçi a˘ga yeni bilgi girildi˘ginde a˘gdaki de˘gi¸skenlerin ba˘gımsızlık durumuna d-ayrılık özeli˘ginden yaraklanılarak karar verilir.Nedensel bir a˘gda yer alan iki de˘gi¸sken a ve b olmak üzere bu de˘gi¸skenler arasında tüm yolları kesen bir c de˘gi¸skeni varsa ve a ile b arasında ¸ Sekil 3’deki gibi dizisel ¸sekilde, ¸ Sekil 3: Seri ¸sekilde yollar yada serilen ba˘g varsa ve C nin durumu biliniyorsa yada a ile b arasında birle¸sen bag varsa ve c yada c nin soy dü˘gümleri hakkında herhangi bir bilgi yoksa aile b de˘gi¸skenlerinin ¸ Sekil 4’teki gibi d-ayrıolur. 11
  • 22. ¸ Sekil 4: Ayrılmı¸s ¸sekildeki yollar a ile b d ayrı de˘gil se d baglı olarak adlandırılır ve ¸ Sekil 5 gibi ¸sematize edilir. ¸ Sekil 5: Birle¸sen yollar Bayesçi a˘glarda çıkarsamalar ilgilenilen de˘gi¸skenlerin marjinal da˘gılımları hesaplana-rak( ili¸skisiz degiskenler üzerinden çok de˘gi¸skenli olasılık da˘gılımının toplamı alınarak) yapılır.Bayesçi a˘glarda çıkarsamalar en genel anlamda iki ¸sekilde gerçekle¸sir.Bunlardan ilkinde ,bir dü˘güme ebeveyn dü˘gümleri vasıtasıyla ba˘glı olan bilgi dü˘gümlerinden yarala-nılarak gerçekle¸stirilir.Bu hesaplama yöntemi yukarıdan a¸sa˘gıya çıkarsama olarak ad-landırılır. Di˘ger çıkarsama yönteminde ise bir dü˘güme çocuk dü˘gümleri vasıtasıyla ba˘glı olan bilgi dü˘gümlerine dayanır.Bu yöntem a¸sa˘gıdan yukarıya çıkarsama olarak adlan-dırılır. A˘g yapısının ögrenilmesi ,parametrelerin ögrenilmesinden daha zor bir problem-dir. Ayrıca gizli dü˘gümler yada kayıp veri gibi kısmi gözlenebilirlik durumu söz konusu oldu˘gunda ba¸ska zorluklarda ortaya çıkar.Genellikle,farklı ö˘grenme yöntemlerinin öne-rildigi ¸ Sekil 6’daki gibi dört farklı ögrenme durumu söz konusudur. 12
  • 23. ¸ Sekil 6: Bayes a˘glarında söz konusu dört durum) Bayesci ag yapısının ögrenilmesinde verilen bir D = x1; x2; :::; xn ögrenme veri kumesi için em uygun «B» bayesçi a˘gının bulunması amaçlanır.Bunun için de genellikle bir skor fonksiyonundan yararlanılır.Bu skor fonksiyonlarından en sık kullanılanları : bayesci skor fonksiyonu ve en kucuk tanım uzunlugu ilkesine dayalı bir fonksiyonu de-nir. Ekt ilkesi veriyi özetlemeye dayalı olarak ögrenmeyi gerçekle¸stirir.Bu ilkede amaç,orjinal verinin en kısa tanımını yapabilmektedir.b = (Gj) bir bayesci ag ve D=x1; x2; ; xn ögrenme veri kumesi olsun.D verildi˘ginde B a˘gına ili¸skin ekt skor fonksiyonu denklem 11 ile formulize edilmi¸stir. ektBjD = logN 2 jBj LL(BjD) (11) |B| a˘gdaki parametre sayısıdır.LL(B|D) ise bilindi˘ginde B’nin logaritmik olabilirlik fonsi-yonudur. LL(BjD) = NP i=1 log PBxi bir bayesçi a˘g sınıflandırıcısı C sınıf de˘gi¸skeni x1; x2; ; xn di˘ger de˘gi¸skenler olmak üzere X = (x1; x2; ; xn) olasılı˘gını modelleyen bayesçi a˘g B olsun.Bu sınıflandırıcı B üzerinden PB = (cjx1; x2; ; xn) sonsal olasılı˘gını maksimum yapan C sınıflarını belirler. argmaxPB c CjX1;X2; ;Xn Literaturde,sınıflandırma için kullanılan Bayes a˘g yapısını belirleyen bir çok farklı yakla¸sım mevcuttur. a. Tree augmented naive(tan) bayes sınıflandırıcısı b. Bayes naive augmented(ban) c. Bayesian multinet 13
  • 24. d. Genel bayesçi a˘g 2.5 YSA(Yapay sinir a˘gları) ˙Insan beynindeki sinir hücrelerinin i¸slevini modelleyen yapı [2]’den alınanlara göre; ¸ Sekil 7 deki gibi birbiri ile ba˘glantılı katmanlardan olu¸sur. ¸ Sekil 7: Yapay sinir a˘g katmanları(perseptronlar) Katmanlar hücrelerden olu¸sur. Katmanlar arasında iletim ˙Ileti katmanlar arasındaki ba˘gın a˘gırlı˘gına ve her hücrenin de˘gerine ba˘glı olarak de˘gi¸sebilir. Tablo 5 de verildi˘gi gibi giri¸sler ve beklenen çıkıları belirtilmi¸stir. ¸ Sekil 8 ve ¸ Sekil 9 de karakutu yakla¸sımı,giri¸sler ile a˘gırlıkları ¸sematize edilmi¸stir. Tablo 5: Ve kapısının giri¸s ve çıkı¸sları birincil ikincil netice 0 0 0 0 1 0 1 0 0 1 1 1 14
  • 25. ¸ Sekil 8: Yapay sinir a˘gının yakla¸sımı ¸ Sekil 9: Ysa’nın ö˘grenme ¸sekli netice = I(0:5 birincil + 0:5 ikincil t 0) (12) I(z) = 8 : 0 z 0 ise 1 diger (13) Birbiri ile ba˘glantılı nöronlar ve a˘gırlıklar Denklem 14 teki gibi çıkı¸s nöronu kendisine gelen giri¸sleri a˘gırlıklı olarak topluyor 12 nolu ifadede çıkı¸s nöronu bir e¸sik de˘geri ile kar¸sıla¸stırılıyor X netice = I( i X wiXi t); netice = sign( i wiXi t) (14) 15
  • 26. ¸ Sekil 10: Ysa’nın aktivasyon fonksiyonu ¸ Sekil 10 de bir aktivasyon fonksiyonu ¸sematize edilmi¸stir. Yapay sinir a˘gını ö˘grenme: a˘gırlıkları ö˘grenme Yapay Sinir A˘gı ile Ö˘grenme Yapay sinir a˘gı olu¸sturma giri¸s verisini modelleme Gizli katman sayısını, gizli katmanlardaki nöron sayısını belirleme Yapay sinir a˘gını e˘gitme Sinir a˘gını küçültme Sonucu yorumlama Yapay Sinir A˘gını Olu¸sturma Giri¸s nöron sayısı Ö˘grenme kümesindeki verilerin nitelik sayısı Gizli nöron sayısı ö˘grenme sırasında ayarlanır Çıkı¸s nöron sayısı sınıf sayısı Yapay Sinir A˘gını E˘gitme 16
  • 27. Amaç: Veri kümesindeki örneklerin hepsini do˘gru sınıflandıracak a˘gırlıkları belir-lemek A˘gırlıklara rasgele de˘gerler ata ö˘grenme kümesindeki giri¸s de˘gerlerini teker teker sinir a˘gına uygula Çıkı¸sı hesapla Hata de˘gerini hesapla A˘gırlıkları hata fonksiyonunu en küçültecek ¸sekilde düzelt X i (Yi f(wi;Xi))2 (15) Denklem 15 ile hata de˘geri hesaplanır. Yapay Sinir A˘gını Küçültme Tam ba˘glı a˘gın anla¸sılması çok güç n giri¸s nöron, h gizli nöron, m çıkı¸s nöronu h(m+n) a˘gırlık Küçültme: a˘gırlıklardan bazıları sınıflandırma sonucunu etkilemeyecek ¸sekilde si-linir. Avantaj dezavantajları Do˘gru sınıflandırma oranı genelde yüksek Kararlı ö˘grenme kümesinde hata oldu˘gu durumda da çalı¸sıyor Çıkı¸s ayrık, sürekli ya da ayrık veya sürekli de˘gi¸skenlerden olu¸san bir vektör olabi-lir Ö˘grenme süresi uzun Ö˘grenilen fonksiyonun anla¸sılması zor 17
  • 28. 2.5.1 Çok katmanlı algılayıcılar Algılayıcı ve Adaline yöntemleri do˘grusal olmayan çözümler üretemedi˘gi için hem mi-mari hem de e˘gitim algoritması açısından iyile¸stirilmi¸s Çok Katmanlı Algılayıcı (MLP) a˘gı önerilmi¸stir. Mimari açıdan do˘grusal olmayan aktivasyon fonksiyonuna sahip birçok nöronun birbirine hiyerar¸sik olarak ba˘glandı˘gı bir yapıya sahip olan MLP, Algılayıcı ve Adaline yöntemlerinin avantajları yanı sıra geri-yayılım adındaki ö˘grenme sistemini kul-lanmaktadır. aktivasyon fonksiyonu Genel kavram olarak aktivasyon fonksiyonu, bir de˘gi¸skeni farklı bir boyuta ta¸sıyan do˘g-rusal veya do˘grusal olmayan bir fonksiyondur. Türevinin kolay alınabilmesi e˘gitim hızını arttırır. Sıklıkla kullanılan üç aktivasyon fonksiyonu vardır; Sigmoid,Hiperbolik Tanjant ve Adım Basamak. s(net) = 1 1 + enet (16) s(net) = 8 : 1 net = 0 ise 1 net 0 (17) s(net) = 1 e2net 1 + e2net (18) Denklem 16 sigmoid fonksiyonunu,denklem 17 birim basamak,denklem 18’de hiperbolik tanjant fonsiyonunu belirtmektedir. 2.5.2 Radyal tabanlı sinir a˘gları Radyal tabanlı a˘glar, duyarlı almaç bölgelerinin oldu˘gu giri¸s tabakası, radyal tabanlı nö-ronları, ¸ Sekil 11, içeren gizli tabaka ve ço˘gunlukla do˘grusal aktivasyon fonksiyonlu nö-ronlardan ibaret çıkı¸s tabakasından olu¸sur.Radyal tabanlı a˘glar, geriyayılım algoritmalı ileri beslemeli a˘glardan daha fazla nöron kullanımına ihtiyaç duyabilirse de e˘gitim süresi çok daha kısadır. Yo˘gun e˘gitim verisiyle daha iyi sonuçlar verir.[11]’dan alınan verilerden yaralanılmı¸stır. 18
  • 29. ¸ Sekil 11: Radyal tabanlı nöron Radyal tabanlı transfer fonksiyonunun net giri¸si, a˘gırlık vektörü, w, ile giri¸s vektörü, p’nin vektörel uzaklı˘gının bias terimi ile çarpımıdır. w ile p arasındaki uzaklık azaldıkça transfer fonksiyonunun çıkı¸sı artar ve uzaklık sıfırken çıkı¸s maksimum de˘geri 1’e ula¸sır. w ile p arasındaki uzaklık arttıkça çıkı¸s sıfıra gider. ¸ Sekil 12: Radyal tabanlı fonksiyon ¸ Sekil 12 de radyal tabanlı fonksiyon ve radyal tabanlı bir a˘gın topolojisi ¸ Sekil 13’de gös-terilm ¸stir. 19
  • 30. ¸ Sekil 13: Radyal tabanlı a˘g topolojisi 2.6 Destek vektör makinesi SVM, Vladimir Vapnik ve Alexey Chernovenkis tarafından istatistiksel ö˘grenme teorisi kullanarak türetilmi¸s [7]’den alınan kaynaklara göre.Sınıfları birbirinden ayıran özel bir çizginin (hyperplane) nin bulunmasını amaçlar. Bu çizgi iki sınıfa en uzak olan çizgidir. E˘gitim verileri kullanılarak hyperplane bulunduktan sonra, test verileri sınırın hangi tara-fında kalmı¸ssa o sınıfa dahil edilir. ¸ Sekil 14 de verildi˘gi gibi lineer olarak ayrılması sa˘g-lanır. Sequential Mimimal Optimization, SMO (Ardı¸sık minimal optimizasyon metodu) olarakta adı geçmektedir. ¸ Sekil 14: Destek vektör makinesi ile ayırma Lineer olarak ayrılamayan örneklerde veriler daha yüksek boyutlu ba¸ska bir uzaya ta¸sınır ve sınıflandırma o uzayda yapılır. A¸sa˘gıdaki ¸sekilde örnekler lineer olarak ayrılamaz iken, ¸ Sekil 15 de üç boyutlu uzayda denklem 19 ile ayrılabilmektedir. 20
  • 31. x21 ; x22 ; (2 x1 x2)0:5 (19) Peki nasıl ayrılıyor? SVM’de,lineer olmayan özellikler için kernel (çekirdek) terimi kullanılır,K(xi; xj) sembol ile gösterilir Kerneller kullanarak, SVM lineer olmayan sınıflandırma için kullanılabilir SVM problemi, bu ¸sekilde yazılabilir (dual ¸sekli adlandırılan ifade 20 ve ifade 21 ve 22 da ise durumları gösterilmi¸stir); max X ai 1 2 X aiajyiyj(xi xj) (20) X aiyi = 0 (21) 0 aiyi C (22) ˙Ifade 20’nin en sa˘gındaki parametre skalar oldu˘gundan dolayı xi xj = K(xi; xj) yazaca˘gız. 4 farklı çekirdek opsiyonu vardır. 1. K(xi; xj) = e (xi xj)2 22 en çok kullanılan, 2. K(xi; xj) = (xi yj)d homojen polinom kerneli, 3. K(xi; xj) = (1 + xi yj)d homojen olmayan polinom kerneli, 4. K(xi; xj) = tanh(c + k xi yj) homojen polinom kerneli, 21
  • 32. ¸ Sekil 15: Lineer olarak ayrılamayan verilerin sınıflandırılması 3 Ö˘grenmesiz Ö˘grenme(Clustering) [8]’daki verilerden kümeleme algoritmaları e˘giticisiz ö˘grenme metotlarıdır. Örneklere ait sınıf bilgisini kullanmazlar. Temelde verileri en iyi temsil edecek vektörleri bulmaya çalı¸sırlar. Verileri temsil eden vektörler bulunduktan sonra artık tüm veriler bu yeni vektör-lerle kodlanabilirler ve farklı bilgi sayısı azalır. Bu nedenle birçok sıkı¸stırma algoritmasının temelinde kümeleme algoritmaları yer almaktadır. Elimizde tek boyutlu 10 örnek içeren bir verimiz olsun. 12 15 13 87 4 5 9 67 1 2 Bu 10 farklı veriyi 3 farklı veri ile temsil etmek istersek 12 12 12 77 3 3 3 77 3 3 ¸seklinde ifade ederiz. Gerçek de˘gerler ile temsil edilen de˘gerler arasındaki farkı minimum yapmaya çalı¸sır. Yukarıdaki örnek için 3 küme olu¸smu¸stur. 12-15-13 örnekleri 1. kümede 87-67 örnekleri 2. kümede 4-5-1-2-9 örnekleri 3. kümede yer almaktadır. Ölçeklenebilirlik 22
  • 33. Farklı tipteki niteliklerden olu¸san nesneleri demetleme Farklı ¸sekillerdeki demetleri olu¸sturabilme En az sayıda giri¸s parametresi gereksinimi Hatalı veriler ve aykırılıklardan en az etkilenme Model olu¸sturma sırasında örneklerin sırasından etkilenmeme Çok boyutlu veriler üzerinde çalı¸sma Kullanıcıların kısıtlarını göz önünde bulundurma Sonucun yorumlanabilir ve anla¸sılabilir olması ˙Iyi Demetleme ˙Iyi demetleme yöntemiyle elde edilen demetlerin özellikleri; aynı demet içindeki nesneler arası benzerlik fazla , farklı demetlerde bulunan nes-neler arası benzerlik az Olu¸san demetlerin kalitesi seçilen benzerlik ölçütüne ve bu ölçütün gerçeklenme-sine ba˘glı Uzaklık Benzerlik nesnelerin nitelik tipine göre de˘gi¸sir Nesneler arası benzerlik: s(i; j) Nesneler arası uzaklık: d(i; j) = 1 s(i; j) ˙Iyi bir demetleme yöntemi veri içinde gizlenmi¸s örüntüleri bulabilmeli Veriyi gruplama için uygun demetleme kriteri bulunmalı demetleme = aynı demetteki nesneler arası benzerli˘gi en büyüten, farklı demetler-deki nesneler arası benzerli˘gi en küçülten fonksiyon Demetleme sonucunun kalitesi seçilen demetlerin ¸sekline ve temsil edilme yönte-mine ba˘glı 23
  • 34. Peki temel demetleme yala¸sımları nelerdir? 1. Bölünmeli yöntemler: Veriyi bölerek, her grubu belirlenmi¸s bir kritere göre de˘ger-lendirir 2. Hiyerar¸sik yöntemler: Veri kümelerini (ya da nesneleri) önceden belirlenmi¸s bir kritere göre hiyerar¸sik olarak ayırır 3. Yo˘gunluk tabanlı yöntemler: Nesnelerin yo˘gunlu˘guna göre demetleri olu¸sturur 4. Model tabanlı yöntemler: Her demetin bir modele uydu˘gu varsayılır. Amaç bu mo-dellere uyan verileri gruplamak 3.1 Bölünmeli yöntemler Amaç: n nesneden olu¸san bir veri kümesini (D); k; (k n) demete ayırmak ayrılan her demette en az bir nesne bulunmalı ayrıca her nesne sadece bir demette bulunmalı Yöntem:Demetleme kriterini en büyütücek ¸sekilde D veri kümesi k gruba ayırma Global çözüm: Mümkün olan tüm gruplamaları yaparak en iyisini seçme (NP kar-ma ¸sık) Sezgisel çözüm: k-means ve k-medoids k-means 1: Her demet kendi merkezi ile temsil edilir k-medoids2: Her demet, demette bulunan bir nesne ile temsil edilir 3.1.1 k-kom¸su(k-means) E˘giticisiz bir yöntem olan K-Mean Clustering, eldeki verileri özelliklerine göre hiçbir sınıf bilgisi olmadan K sayıda kümeye gruplama i¸slemidir. Gruplama, ilgili cluster’ın centroid (merkez) de˘geri ile veri setindeki her objenin/nesnenin arasındaki farkın kareleri toplamının minimumu alınarak gerçekle¸stirilir. Objelerin sınıflandırılması i¸slemi gerçek-le ¸stikten sonra her bir sınıfa veya kümeye ilgili etiketin verilmesi uzman bir ki¸si tarafından 1 MacQueen tarafından 67 yılında bulunmu¸stur. 2PAM (Partition around medoids) (Kaufman Rousseeuw’87) 24
  • 35. yapılır [4]’daki verilere göre. Örnek: E˘gitim setinizde 4 adet objenin oldu˘gu ve her bir objenin iki özelli˘ge sahip oldu˘gunu var-sayalım. Tablo 6: Nesne ve o nesneye ait olan nicelikler(ö˘grenmesiz ö˘grenme) Nesne Ozelik1(A˘gırlık indeksi(X)) Ozellik2(Y)pH medicinea 1 1 medicineb 2 1 medicinec 4 3 medicined 5 4 Öncelikle bilinmesi gereken objelerin kaç kümeye ayrılaca˘gıdır (bu örnek Tablo 6 için 2 olsun, Cluster 1 ve Cluster 2). Esas problem ise bu ilaç objelerinin hangisinin Cluster 1, hangisinin Cluster 2’ye ait oldu˘gudur. Öncelikle cluster (küme) sayısına karar verilir (k) Herbir cluster’ın centroid/merkez noktası belirlenir Ba¸slangıç centroid’leri olarak veri setinden rasgele k nokta seçilebilir veya Veriler sıralanarak her k ve k’nın katlarında yer alan de˘gerler centroid noktaları olarak alınabilir Daha sonra K-means algoritmasında, cluster’lar içerisinde yer alan objeler hare-ketsiz kalıncaya kadar yani yer de˘gi¸stirmeyinceye kadar üç a¸samadan olu¸san i¸slem tekrarlanır Centroid noktalarına karar verilir Her objenin centroid noktalarına olan uzaklıkları hesaplanır Her obje minimum uzaklı˘gı sahip oldu˘gu cluster’a atanır K-means demetleme çe¸sitleri 25
  • 36. K-Means demetlemeye ba¸slamadan önce yapılanlar Veri kümesini örnekleyerek hiyerar¸sik demetleme yap. Olu¸san k demetin orta-lamasını ba¸slangıç için merkez nokta seç Ba¸slangıçta k’dan fazla merkez nokta seç. Daha sonra bunlar arasından k tane seç. K-Means demetleme i¸slemi sonrasında yapılanlar Küçük demetleri en yakın ba¸ska demetlere dahil et En büyük toplam karesel hataya sahip olan demeti böl Merkez noktaları birbirine en yakın demetleri birle¸stir Toplam karesel hatada en az artı¸sa neden olacak iki demeti birle¸stir K-Means demetleme algoritmasının özellikleri Gerçeklemesi kolay Karma¸sıklı˘gı di˘ger demetleme yöntemlerine göre az K-Means algoritması bazı durumlarda iyi sonuç vermeyebilir Veri grupları farklı boyutlarda ise Veri gruplarının yo˘gunlukları farklı ise Veri gruplarının ¸sekli küresel de˘gilse Veri içinde aykırılıklar varsa 3.1.2 K-medoids demetleme yöntemi Her demeti temsil etmek için demet içinde orta nokta olan nesne seçilir. 1, 3, 5, 7, 9 ortalama:5 1, 3, 5, 7, 1009 ortalama=205 1, 3, 5, 7, 1009 orta nokta=5 26
  • 37. Medoids demetleme yöntemi PAM (Partitioning Araound Medoids 1987) Ba¸slangıçta k adet nesne demetleri temsil etmek üzere rasgele seçilir xik Kalan nesneler en yakın merkez nesnenin bulundu˘gu demete dahil edilir Merkez nesne olmayan rasgele bir nesne seçilir xrk xrk merkez nesne olursa toplam karesel hatanın ne kadar de˘gi¸sti˘gi bulunur 23 nolu denklem Tcik 0 ise xrk merkez nesne olarak atanır Demetlerde de˘gi¸siklik olu¸smayana kadar Merkez nesne olmayan rasgele bir nesne seçilir xrk i¸slemi gerçeklenir. nk=k demeti içindeki nesne sayısı xjk=k demeti içindeki j. nesne Tcik = nk X j=1 (xik xjk)2 nk X j=1 (xrk xjk)2 (23) Özellikler Küçük veri kümeleri için iyi sonuç verebilir, ancak büyük veri kümeleri için uygun de˘gildir [14]’deki verilere göre. 3.2 Hiyerar¸sik yöntemler Demet sayısının belirlenmesine gerek yok ancak sonlanma kriteri belirlenmesi gereki-yor. A¸sa˘gıdan yukarıya agglomerative,yukarıdan a¸sa˘gıya divisive denir. AGNES (AGglomerative NESting): Kaufmann ve Rousseeuw tarafından 1990 yılında önerilmi¸stir. Birinci adımda her nesne bir demet olu¸sturur. Aralarında en az uzaklık bulunan demetler her adımda birle¸stirilir. Bütün nesneler tek bir demet içinde kalana kadar yada istenen sayıda demet elde edene kadar birle¸stirme i¸slemi devam eder. 27
  • 38. DIANA (DIvisive ANAlysis): Kaufmann ve Rousseeuw tarafından 1990 yılında önerilmi¸stir. AGNES’in yaptı˘gı i¸slemlerin tersini yapar. En sonunda her nesne bir demet olu¸sturur. Her nesne ayrı bir demet olu¸sturana ya da istenilendemet sayısı elde edene kadar ayrılma i¸slemi devam eder. Hiyerar¸sik demetleme Dendogram: Demetler hiyerar¸sik olarak a˘gaç yapısı ¸seklinde görüntülenebilir Ara dü˘gümler çocuk dü˘gümlerdeki demetlerin birle¸smesiyle elde edilir Kök: bütün nesnelerden olu¸san tek demet Yapraklar: bir nesneden olu¸san demetler Dendogram istenen seviyede kesilerek demetler elde edilir A¸sa˘gıdan yukarıya demetleme Algoritma Uzaklık matrisini hesapla Her nesne bir demet Tekrarla En yakın iki demeti birle¸stir Uzaklık matrisini yeniden hesapla Sonlanma: Tek bir demet kalana kadar Uzaklık matrisini hesaplarken farklı yöntemler farklı demetleme sonuçlarına neden olurlar Hiyerar¸sik demetleme yöntemlerinin özellikleri Demetleme kriteri yok 28
  • 39. Demet sayılarının belirlenmesine gerek yok Aykırılıklardan ve hatalı verilerden etkilenir Farklı boyuttaki demetleri olu¸sturmak problemli olabilir Yer karma¸sıklı˘gı - O(n2) Zaman karma¸sıklı˘gı - O(n2logn) ve n : nesne sayısı 3.3 Yo˘gunluk tabanlı yöntemler Demetleme nesnelerin yo˘gunlu˘guna göre yapılır. Ba¸slıca özellikleri: Rastgele ¸sekillerde demetler üretilebilir. Aykırı nesnelerden etkilenmez. Algoritmanın son bulması için yo˘gunluk parametresinin verilmesi gerekir. Ba¸slıca yo˘gunluk tabanlı yöntemler: DBSCAN: Ester, et al. (KDD’96) OPTICS: Ankerst, et al (SIGMOD’99). DENCLUE: Hinneburg D. Keim (KDD’98) CLIQUE: Agrawal, et al. (SIGMOD’98) 3.3.1 DBSCAN ˙Iki parametre: Eps: En büyük kom¸suluk yarıçapı MinPts: Eps yarıçaplı kom¸suluk bölgesinde bulunan en az nesne sayısı Neps(p) : q 2 Djd(p; q) Eps 29
  • 40. Do˘grudan eri¸silebilir nesne: Eps ve MinPts ko¸sulları altında bir q nesnesinin do˘g-rudan eri¸silebilir bir p nesnesi ¸su ¸sartları sa˘glar: p 2 Neps(q) q nesnesinin çekirdek nesne ko¸sulunu sa˘glaması Neps(q) MinP ts Eri¸silebilir nesne: Eps ve MinPts ko¸sulları altında q nesnesinin eri¸silebilir bir p nesnesi olması için: p1; p2; ; pn nesne zinciri olması p1 = q; pn = p pi nesnesinin do˘grudan eri¸silebilir nesnesi:pi+1 Yo˘gunluk ba˘glantılı Nesne: Eps ve MinPts ko¸sulları altında q nesnesinin yo˘gunluk ba˘glantılı nesnesi p ¸su ko¸sulları sa˘glar: p ve q nesneleri Eps ve MinPts ko¸sulları altında bir o nesnesinin eri¸silebilir nesnesidir. Yo˘gunluk tabanlı yöntemlerin özellikleri Veri tabanındaki her nesnenin Eps yarıçaplı kom¸suluk bölgesi ara¸stırılır. Bu bölgede MinPts’den daha fazla nesne bulunan p nesnesi çekirdek nesne olacak ¸sekilde demetler olu¸sturulur. Çekirdek nesnelerin do˘grudan eri¸silebilir nesneleri bulunur. Yo˘gunluk ba˘glantılı demetler birle¸stirilir. Hiçbir yeni nesne bir demete eklenmezse i¸slem sona erer. Yer karma¸sıklı˘gı - O(n) Zaman karma¸sıklı˘gı - O(n log n) n: nesne sayısı 30
  • 41. 3.4 Model tabanlı demetleme yöntemleri Veri kümesi için öngörülen matematiksel model en uygun hale getiriliyor. Verinin genel olarak belli olasılık da˘gılımlarının karı¸sımından geldi˘gi kabul edilir. Model tabanlı demetleme yöntemi Modelin yapısının belirlenmesi Modelin parametrelerinin belirlenmesi Örnek EM (Expectation Maximization) Algoritması Demetlemede amaç gizli de˘gi¸skenleri bulmak: sınıf bilgisi Gizli de˘gi¸skenler veri üzerinde bir olasılık fonksiyonu ile matematiksel olarak ifade edilebilen bir olasılıksal da˘gılımdır Örnek: Satılan dijital kameraların sınıfı Profesyonel veya amatör (C1 ve C2) Her sınıf için iki olasılık yo˘gunluk fonsiyonu: f1 ve f2 Olasılıksal karı¸sım modelleri gözlenen verinin farklı olasılık da˘gılımları ile temsil edilen demetlerin örnekleri oldu˘gunu varsayar Gözlenen verideki her örnek birbirinden ba˘gımsız ˙Istatistiksel olarak: K nesneden olu¸san bir veri kümesi D = x1; x2; ; xK 8xi(i 2 [1; K]) nesnesi parametre kümesiyle tanımlanan bir olasılık da˘gı-lımından olu¸sturulur. Olasılık da˘gılımının, cj 2 C = c1; c2; ; cG ¸seklinde G adet bile¸seni vardır. 8g; g 2 [1; :::;G] parametre kümesi g bile¸seninin olasılık da˘gılımını belirleyen, kümesinin ayrı¸sık bir alt kümesidir. P Herhangi bir xi nesnesi öncelikle, p(cgj) = g; ( G g = 1) olacak ¸sekilde 31
  • 42. bile¸sen katsayısına (ya da bile¸senin seçilme olasılı˘gına) göre bir bile¸sene atanır. Bu bile¸sen p(xijcg; g) olasılık da˘gılımına göre xi de˘gi¸skenini olu¸sturur. Böylece bir xi nesnesinin bu model için olasılı˘gı bütün bile¸senlerin olasılıkla-rının toplamı denklem 24 ve 25 ile ifade edilebilir: p(xi; ) = XG g=1 p(cgj)p(xijcg; g) (24) p(xi; ) = XG g=1 gp(xijcg; g) (25) Model parametrelerinin belirlenmesi Maximum Likelihood (ML) yakla¸sımı denklem 26’deki gibidir. `ML(1; ; G; 1; ; GjD) = YK i=1 XG g=1 gp(xijcg; g) (26) Maximum aposteriori (MAP) yakla¸sımı 27 deki gibi olacaktır. `MAP (1; ; G; 1; ; GjD) = YK i=1 XG g=1 gp(xijcg; g)p() D (27) Uygulamada her ikisinin logaritması 28 ve 29 ile ifade edilebilir. L(1; ; G; 1; ; GjD) = XK i=1 ln XG g=1 gp(xijcg; g) (28) L(1; ; G; 1; ; GjD) = XK i=1 ln XG g=1 gp(xijcg; g) + lnp() (29) 3.4.1 EM algoritması Veri kümesi: D = x1; x2; ; xK Gizli de˘gi¸skenler H = z1; z2; ; zk (her nesnenin hangi demete dahil oldu˘gu bil-gisi) 32
  • 43. zj = xj ; y1j ; y2j ; ; yGjxj verisi ci demetinde ise yij = 1 Verinin eksik oldu˘gu durumda, tam verinin beklenen de˘geri 30 nolu denklem ile hesaplanır. Q(; 0) = E(Lc(D;Hj)jD; 0) = XK i=1 XG g=1 p(Cgjxi)[ln p(xijcg) + ln g] (30) E ve M adımları ˙Iki adım arasında yinelemeli E adımı: ’ parametrelerine dayanarak eksik veri için en iyi olası kestirimler M adımı: Eksik veri atandı˘gında yeni parametrelere ili¸skin kestirimler EM Algoritmasının adımları: ’ için ba¸slangıç de˘gerleri atama (E) Expectation: Q(j0) hesaplanması (M) Maximization: argmaxQ(j0) Normal da˘gılım için EM algoritması xj verisi ci demetinde ise yij = 1 de˘gilse yij = 0 E adımı: p(ci; xj ; l) = p(yij = 1; l) = p(xj jci; l i; l i)p(ci) PG g=1 P(cg)p(xj jcg; l i; l i) hij Normal da˘gılım için:P(xj jci; i; ) = 1 (2)d=2d exp (xj i)2 22 Madımında ise p(ci) = P j hij K ve l+1 i = P j hijxj P j hij ayrıca l+1 i = P j hij(xj l i)(xj l i)T P j hij 4 ˙Ili¸skili(Associate) 4.1 Appriori(ili¸skilendirme) Bir süpermarkette, x ürününü alan mü¸sterilerin yüzde 80’i y ürününü de alıyorsa, x ürü-nünü alıp, y ürününü almayan mü¸steriler, y ürününün potansiyel mü¸sterileridir. Mü¸sterile- 33
  • 44. rin sepet bilgilerinin bulundu˘gu bir veri tabanında potansiyel y mü¸sterilerini bulma i¸slemi türündeki problemler ili¸ski belirme yöntemleri ile çözülür.[9] Sepet analizi Raf düzenlemesi Promosyonlar 34
  • 45. Makine ö˘grenme simulatörü Piyasada bu alanda birden çok program mevcuttur.Biz hem kolay bulunması ve de kolay anla¸sılır arayüzü nedeniyle weka’yı kullanaca˘gız.Programın arayüzü ¸ Sekil 16 da gösteril-mi ¸stir. 5 Weka [7]’e göre Weka’nın açılımı Waikato Environment for Knowledge Learning.Bu program Yeni Zelanda’nın Waikato üniversitesi tarafından geli¸stirilmi¸stir.Weka programı ile veri-leri öni¸sleme,sınıflandırma,demetleme gibi i¸slemleri data tipine göre i¸sliyebiliyoruz. 5.1 Ortam tanıtımı Explorer:Bu sekme veri ön i¸sleme secilen özeli˘ge ait istatistiklerin görüntülenmesini sa˘g-layan forma götüren sekmedir. Knowledge Flow:Sürükle bırak mantı˘gına göre belirli komponentlerle yapılan islemlerin yapılmasını sa˘glayan forma götürür. ¸ Sekil 16: Waikato üniversitesi tarafından geli¸stirilmi¸s bir makine ö˘grenme simülasyonu 35
  • 46. Yukarıdaki formda explorer sekmesi tıklandı˘gında ¸ Sekil 17 daki form açılır.Bu asamadan sonra formun üst kısmındaki butonlarla asıl i¸simiz.Yukarıda sözü geçen perprocess,classify,cluster vb. dü˘gmeler. ¸ Sekil 17: Seçilen veri kümesinin öni¸slemeye tabi tutulması için gereken form ekranı 5.2 Veri alınması Open file sekmesini tıklatıp ilgili kaynak kodumuz csv,arff yada ilgili veritabanı ba˘glantısı aracılı˘gıyla dataları çekebiliyoruz.Ancak biz farklı yollara girmeyip arff dosya formatında bahsedersek, ¸ Sekil 18 deki gibi olmalıdır. Yani javadaki class’ın ismi ile dosyanın adının aynı olması gibi ili¸skilendirilebilir.alanlar: @relation ’dosyaismi’ @attribute degiskenadi dizitipidegiskenleri 36
  • 47. ¸ Sekil 18: Weka’da arff dosya formatının veri yapısı,veriler yada @attribute degiskenadi (numeric,real,vb..) @data sonra ilgili veriler girdi˘gimiz alan kadar girilip alt satırda kayıtlar devam edilir. ˙Ilgili .arff dosyamızı Open file butonuyla açtıktan sonra Filter sekmesinin altında ili¸skili dosyanın adı kaç tane örneklemesinin oldu˘gu kaç adet sütun alanının oldu˘gu bilgileri ¸ Sekil 19 de,sa˘g üstteki kısımda sol alttaki seçilmi¸s olan alana göre istatistiki verileri herbir alanından kaç adet veri oldu˘gu bilgisi string grid komponentine yazılmı¸s hemen altındaki chart grafiginde ise secilen alanla ilgili görsel istatiski kullanıcıya ¸ Sekil 20 de göstermi¸stir. 5.2.1 Kullanaca˘gımız yöntemler Kullanılan yöntemlere geçmeden önce ¸ Sekil 21 deki gibi sınıflandırma geçerlili˘gi buton-ları vardır. use training set çekbaksını tiklersek bütün datayı pratik olarak alacaktır.Daha sonra test yapmak istedi˘gimizde aynı duzene sahip bir formatta bir dosya olu¸sturarak supplied test set çekbaksı aracılı˘gla test ederiz. 37
  • 48. ¸ Sekil 19: Weka’da veri ön i¸sleme ekranı ¸ Sekil 20: Sol alttaki çekbaksların seçilerek ilgili istatistiklerin gösterilmesi 38
  • 49. cross validation çekbaksı tiklendi˘ginde ise veri,textbakstaki sayi k olursa k adet kümeye ayrılır. Birisi test kümesi için ve di˘ger K-1 küme birle¸stirilip e˘gitim kümesi için seçilir. Bu i¸slem kümeler de˘gi¸stirilerek K kez tekrarlanır. Genel ba¸sarı için K adet ba¸sarı de˘gerinin ortalaması alınır. ¸ Sekil 21: Wekada ö˘grenmeli ö˘grenmede pratik yöntemleri Percentage split çekbaksı tiklendi˘ginde ise yüzde olarak kısmını e˘gitimde kalan kısmını ise test a¸sama-sında kullanır. 5.3 Kullanılan yöntemlerin cevap açıklamaları Correctly classified instances=Sinifi do˘gru belirlenen sayisi(datanın) incorrectly classified instances=Sinifi yanlis belirlene sayisi(sa˘glıksız veri) mean absolute error=tam hata degeri root mean squared error=gerçel hatanın karesi Relative absolute error =göreceli tam hata Root relative absolute error =göreceli tam hatanın karekökü total number of instances =toplam örnekleme sayisi tp rate=do˘gru sınıflandırılmı¸s örnek sayisinin tümüne oranı fp rate=yanlı¸s sınıflandırılmı¸s örnek sayisinin tümüne oranı 39
  • 50. precision=pozitif do˘gruların bütün pozitiflere oranı recall=pozitif do˘gruların pozitif do˘grularla negatif yanlı¸sların toplamına oranı accuracy=(do˘gruların tümüne oranı) düzensizlik matrisi a b 2 1 a=0 5 3 b=1 Burada 2 a da do˘gru örneklenen sayisi Burada 3 b de do˘gru örneklenen sayisi 5 ise b olarak verilen ancak a da olan 1 a da verilen ancak b de sınıflandırılmı¸stır. 5.4 Görsel komponentlerle i¸sleme 5.4.1 Nereden yapılır? Weka arayüzü ana menüden knowledge flow butonu tıklanarak ¸ Sekil 22’ deki gibi. 40
  • 51. ¸ Sekil 22: Weka’da knowledge flow butonu 5.4.2 Yükleme(loader) Durumu Gelen arayüzden DataSource sekmesi yardımıyla ¸ Sekil 23’deki gibi butonlar gelecek-tir. Bu sekmeler yardımıyla bundan sonraki a¸sama olan alan seçme i¸slemi gerçeklenecek-tir. Genelde arff loader kompanenti kullanıyoruz. ¸ Sekil 23: Data Source sekmesi içeri˘gi 41
  • 52. 5.4.3 Kayıt ediciler Bu sekme ile biz hedef dosyada farklılıkları kayıt edebiliyoruz.Bu sekmenin içeri˘ginde ¸ Sekil 24’de oldu˘gu gibi komponentler bulunur. ¸ Sekil 24: Data Sink sekmesi içeri˘gi 5.4.4 Filtreler Filtre sekmesi ¸ Sekil 25’deki ö˘grenmeli ve ö˘grenmesiz olmak üzere iki tiptir. ¸ Sekil 25: Filtreler 5.4.5 Sınıflayıcılar Ö˘grenmeli ö˘grenme yöntemlerinin algoritmaları içerir,veriyi loader dan sınıf atamaları ve seçilmesi yapıldıktan sonra e˘gitim ve test verileri’ni gönderecek olan komponente oradan da söz konusu algoritma ile i¸slenecek daha sonra ise sınıflanırma yada demetleme dö-nü ¸stürücüsüne ilgili parametreleri aktaracaktır ayrıca bayes ve a˘gaç uygulamalarında da görsel sekmeden grafik komponentine aktarılarak graf ve karar a˘gacının yapısı görüntü-lenebilir. ¸ Sekil 26 deki gibi komponentler mevcuttur. ¸ Sekil 26: Data Classifier sekmesi 42
  • 53. 5.4.6 Demetleyiciler Ö˘grenmesiz ö˘grenme yöntemlerinin ö˘grenmeli de oldu˘gu gibi ¸ Sekil 27’deki simgeler tıkla bırak yaparak kullanıyoruz. ¸ Sekil 27: Data Clusterer sekmesi 5.4.7 ˙Ili¸skilendirmeler Veri madencili˘ginin önemli bir kolu olan ili¸skilerin ke¸sfini sa˘glayan ayrıca ili¸skilendirme komponentleri ¸ Sekil 28’deki gibi tanımlanmı¸stır. ¸ Sekil 28: Data Associate sekmesi 5.4.8 Konvertör komponentler Bu elemanlar ise arff loader çekilen verilerin alanlarının tanınması,sınıflandırılacak olan özeli˘gi seçme ayrıca sınıflandırma yapıldıktan sonra ilgili metottan dönecek olan hata ve sınıflandırma detaylarını parametre olarak alır olarak alır ve ilgili komponentlere gön-derir, bu yönüyle binevi aktarma görevi üstlenmi¸stir.Bu komponentler ¸ Sekil 29’deki gibi tanımlanmı¸stır. ¸ Sekil 29: Data Evaluation sekmesi 5.4.9 Görsel komponentler Yüklenen verilen görsel olarak incelenmesinin yanı sıra ö˘grenme algortimalarında dö-nen parametrelerin(e¸sik de˘geri,hata vb.) görüntülenmesi sa˘glayan komponentleri barındı- 43
  • 54. rır.Görüntüsü ¸ Sekil 30’deki gibidir. ¸ Sekil 30: Data Visualization sekmesi Birkaç örnek yapalım ¸ Sekil 31’da oldu˘gu gibi öncelikle arff loader simgesi ,sonra ise class assigner simgesi eklendi sonra ise çapraz do˘grulama ,graph viewer,j48,graph viewer,classifier perfor-mance evaluator,text viewer,model performance chart komponentlerini ekliyoruz.Bu siralama ¸su an önemli de˘gil ancak ba˘glantıları açısında sıralı olarak eklememiz ¸sekilsel olarak anlamamıza yardımcı olacaktır. arff loader simgesini sol klikle dosyayı yüklüyo-ruz sonra sa˘g klikleyip dataset seçip class assigner’a ba˘glıyoruz.Aynı ¸sekilde class As-signer simgesinin sa˘g klikleyip datasetini cross validation fold maker simgesine gönde-riyoruz. Bu a¸samadan sonra aynı ¸sekilde cross validation fold maker simgesi sa˘g tıklanıp e˘gitim ve test okları j48 simgesine yönlendiriyoruz.J48’in aynı ¸sekilde sa˘g klikleyip graph seçip graph viewer simgesiyle birle¸stiriyoz.J48 den devam edersek sa˘g tıklayıp batch clas-sifiers özeli˘gini secip classifier performance evaluator simgesine yönlendiriyoruz bu kom-ponentten de visualizable error parametresini mdel performace chart ’a sonuç verileri olan text dosyalarını ise text viewer’a gönderip anla¸sılabilir sonuçları analiz edilir.Peki i¸slem nasıl ba¸slatılır? ¸Söyle arff loader simgesinin üzerine gelinip sq˘g tıklatılıp start loading sekmesi tıklan-dı ˘gında i¸slem ba¸slatılmı¸s olunacak ve analiz yapmak için son uçlardaki komponentlerin üzerine sa˘g tıklantılıp show result ya da bu bir chart ise show cart secene˘gi seçilerek sonuçlar incelenebilir. 44
  • 55. ¸ Sekil 31: J48 karar a˘gacından olu¸san bir sistem Aynı ¸sekilde ¸ Sekil 32’de buna benzer bir örnek yalnızca burada bir nüans farkı class value picker kompenenti mevcut bu eleman ise bizim veriyi hangi alana göre sınıflandırılaca- ˘gına olanak sa˘glayan opsiyondur. ¸ Sekil 32: Bayes ö˘grenmesini ili¸skin sistem ¸ Sekil 33’de gösterilen örnekte ise ö˘grenmesiz ö˘grenen bir sistem tasarlanmı¸stır bu sis-tem yukarıdaki örneklerden pek farklı de˘gildir ancak söz konusu bu durumda yine bir farklılık gözümüze çarpacaktır,o da classifier performance evalutor yerine clusterer performance evalutor yani anla¸sılaca˘ga üzere sınıflandırma ile demetleme metotlarının i¸slemesi biribirinden farklı oldu˘gu için farklı bir konvertör kullanmamızdır. 45
  • 56. ¸ Sekil 33: Ö˘grenmesiz ö˘grenme yöntemi olan k-means kullanımı A¸sa˘gıdaki ¸ Sekil 34’de gösterilen sistemde ise bir çok katmalı algılayıcı tabanlı bir sistem gösterilmi¸stir. ¸ Sekil 34: ÇKA’lı bir simulasyon arayüzü 46
  • 57. SONUÇLAR ¸ Sekil 35 de tree algoritması kullanılarak veriler i¸slenmesi sonra ¸ Sekil 36 deki gibi ilgili butonlar aracılı˘gıyla veri kümesindeki a˘gaç yapısı çizdirilmi¸stir.Son olarak ¸ Sekil 37 te ise agaç yapısı gösterilmistir. ¸ Sekil 35: A˘gaç sınıflandırma metodu kullanarak verilerin i¸slenmesi 47
  • 58. ¸ Sekil 36: Wekada j48 a˘gaç metodu ile karar a˘gacının görüntülenmesi ¸ Sekil 37: ˙Ilgili veri kümesinin karar a˘gacı ¸ Sekil 38 de ise destek vektör makinesi kullanılarak verinin i¸slenmesi sonuçları ayrıca ¸ Sekil 39 de ise makinenin hangi çekirde˘gi kullanarak gerçekleyece˘gi gösterilmektedir. 48
  • 59. ¸ Sekil 38: Destek vektör makinesi(bu programdaki adıyla smo) yöntemi kullanılarak veri i¸sleme ¸ Sekil 39: Destek vektör makinesi için ilgili çekirde˘gin seçimi 49
  • 60. Altta bulunan ¸ Sekil 40 de ise lineer regression yöntemi kullanılarak veriler i¸slenmistir. ¸ Sekil 40: Lineer regression yöntemi kullanılarak ilgili verilerin do˘gruya uydurulması ¸ Sekil 41,42 de ise Ysa adi altında çka algoritması kullanılarak i¸sleme,ve ¸ Sekil 43,44 de ki gibi katmanlar görüntülenmi¸stir. 50
  • 61. ¸ Sekil 41: Çok katmanlı algılayıcı yöntemi kullanılarak veri i¸sleme ¸ Sekil 42: ˙Iris’e ait olan verilerin mla ile i¸slenmesi 51
  • 62. ¸ Sekil 43: Mla yönteminde katmanların gösterilmesi ¸ Sekil 44: Mla’da i¸slenen verinin algılayıcı katmanları 52
  • 63. futbol.arff,iris.arff veri kümelerinin ¸ Sekil 45 ve ¸ Sekil 46 de ise naive bayes, kullanılarak ve ise ¸ Sekil 47 ve ¸ Sekil 48 de bayes a˘gları ile i¸slenmi¸stir. ¸ Sekil 45: Bayes yöntemi ile veri i¸slenmesi ¸ Sekil 46: ˙Iris’e ait verilerin bayes ile i¸slenmesi 53
  • 64. ¸ Sekil 47: Naive bayes yöntemi ile i¸slenmesi ¸ Sekil 48: ˙Iris’e ait verilerin naive bayes yöntemi ile i¸slenmesi Ö˘grenmesiz ö˘grenme yöntemi olan k-means ile veri sınıflandırması ¸ Sekil 49 deki gibi gerceklenmi¸stir. 54
  • 65. ¸ Sekil 49: Ö˘grenme yöntemi olan k-means ile sınıflandırma Son olarak birden çok olan sınıflama algoritmalarının veri tipinin büyüklü˘gü,verideki alanların çoklu˘gu verisetinin lineer olarak sınıflandırılıp sınıflandırılamadı˘gı,veride yan-lı ¸s sınıflandırmaların olması gibi ölçütlere ba˘glı olarak ¸ Sekil 50’deki gibi sınıflandırma tipleri seçilebilir. ¸ Sekil 50: Veri setinin büyüklü˘gü,sınıflandırılacak olan alanın kaç farklı tipi ol-du ˘gu,alanların sayısına göre sınıflandırma algoritmalarının ba¸sarımı 55
  • 66. Kaynaklar [1] http://tr.wikipedia.org/wiki/Veri_madencili˘gi [2] Öztemel, E., 2006, Yapay Sinir A˘gları, Papatya Yayıncılık, ˙Istanbul [3] http://www.ninova.itu.edu.tr/EgitimDetay.aspx?eId=195 [4] Dr.Banu Diri’a ait kaynaklardan alınmı¸stır. [5] http://dms.irb.hr/tutorial/tut_dtrees.php [6] O. T. Yıldız, E. Alpaydın, Univariate and Multivariate Decision Trees, Tainn 2000 [7] http://www.kernel-machines.org/ [8] Doç. Dr. ¸ Sule Gündüz Ö˘güdücü’e ait kaynaktan alınmı¸stır. [9] An Introduction to the WEKA Data Mining System [10] http://sourceforge.net/projects/weka/files/ documentation/3.7.x/WekaManual-3-7-11.pdf/download? use_mirror=garrdownload= [11] http://okulsel.net/docs/index-23863.html?page=4 [12] Yrd.Doç.Dr Umut Orhan’a ait kaynaklardan alınmı¸stır. [13] www.slideshare.com [14] CLARA (Kaufmann Rousseeuw, 1990) CLARANS (Ng Han, 1994) 56
  • 67. ÖZGEÇM˙I ¸S K˙I ¸S˙ISEL B˙ILG˙ILER Adı Soyadı :Mustafa Köstek Uyru˘gu : T.C Do˘gum Yeri ve Tarihi: Çayıralan 09/05/1993 Adres : Balıkesir ——- Telefon : 5549935366 e-mail : mustafakostek@gmail.com E˘G ˙IT˙IM DURUMU Lisans Ö˘grenimi : Bilecik ¸Seyh Edebali Üniverstesi, Bilecik Bitirme Yılı : 2015 Lise : T.C Balıkesir Edremit Anadolu Lisesi ˙I ¸S DENEY˙IMLER˙I Yıl : Kurum : ——- Stajlar : ˙Izsu stajyer ˙ILG˙I ALANLARI YABANCI D˙ILLER : ˙Ingilizce 57