optical character recognition(matlab)with feature extractionmustafa köstek
Paint with pre-formed character, with feature elicitation method using image processing methods with matlab obtained feature vectors are then trained with the aid of weka, which was found to be more successful in the learning process.
Technically After dynamics calculations with the physical characteristics of the vehicle car speed by using timer in the form of animation at # programming language and made the speed of simulation also inclined roads, fuel consumption, cruise concept in detail validated, the project name of a user to shift the throw data implies key means of artificial intelligence user imitative automatic transmission was developed using the algorithm.
optical character recognition(matlab)with feature extractionmustafa köstek
Paint with pre-formed character, with feature elicitation method using image processing methods with matlab obtained feature vectors are then trained with the aid of weka, which was found to be more successful in the learning process.
Technically After dynamics calculations with the physical characteristics of the vehicle car speed by using timer in the form of animation at # programming language and made the speed of simulation also inclined roads, fuel consumption, cruise concept in detail validated, the project name of a user to shift the throw data implies key means of artificial intelligence user imitative automatic transmission was developed using the algorithm.
SAP PP (Üretim Planlama) Kitabımın tüm detayları ile birlikte düzenlemesi bitmiştir. Yayıncı kurum tarafından çıkarmayacağım. İlgilenen arkadaşlar Email adresimden ulaşabilirler.Aksoy.erdi.1988@gmail.com
Proje Kontrol Açıklamalı El Kitabı v.02.01Yusuf Yıldız
Bu kitapçık T.M.M.O.B İnşaat Mühendisleri Odası İzmir ve Bursa Şubeleri tarafından, statik proje hazırlayan üyelerimize bir yol göstermesi ve kontrol hizmetinin daha sağlıklı yapılabilmesi için hazırlanmıştır.
Veri madenciliği teknikleri ile öğrenci segmentasyonuGülay Ekren
Günümüzde neredeyse tüm sektörlerde veri yığınları ile mücadele edilmektedir. Bu veri yığınlarından anlamlı ve yararlı bilgiler elde etme süreci veri madenciliği olarak tanımlanır. Projede üniversitelerin veritabanlarındaki öğrenci verilerinden anlamlı ve yararlı bilgiler elde etmek ve bu bilgiler ışığında üniversite yönetimlerinin planlama faaliyetlerine destek olmak amaçlanmıştır. Açık kaynak kodlu bir veri madenciliği uygulama aracı olan WEKA yazılımı üzerinde k-means algoritması kullanılarak yapılan kümeleme analizi sonucu öğrenciler gruplara ayrılmış, bu gruplara özgü stratejiler geliştirilmiştir. Üniversite yönetimlerinin geleceğe yönelik planlamalar yapmak ve stratejiler geliştirmek için bu ve buna benzer veri madenciliği uygulamalarını periyodik olarak tekrarlamaları gerekir.
SAP PP (Üretim Planlama) Kitabımın tüm detayları ile birlikte düzenlemesi bitmiştir. Yayıncı kurum tarafından çıkarmayacağım. İlgilenen arkadaşlar Email adresimden ulaşabilirler.Aksoy.erdi.1988@gmail.com
Proje Kontrol Açıklamalı El Kitabı v.02.01Yusuf Yıldız
Bu kitapçık T.M.M.O.B İnşaat Mühendisleri Odası İzmir ve Bursa Şubeleri tarafından, statik proje hazırlayan üyelerimize bir yol göstermesi ve kontrol hizmetinin daha sağlıklı yapılabilmesi için hazırlanmıştır.
Veri madenciliği teknikleri ile öğrenci segmentasyonuGülay Ekren
Günümüzde neredeyse tüm sektörlerde veri yığınları ile mücadele edilmektedir. Bu veri yığınlarından anlamlı ve yararlı bilgiler elde etme süreci veri madenciliği olarak tanımlanır. Projede üniversitelerin veritabanlarındaki öğrenci verilerinden anlamlı ve yararlı bilgiler elde etmek ve bu bilgiler ışığında üniversite yönetimlerinin planlama faaliyetlerine destek olmak amaçlanmıştır. Açık kaynak kodlu bir veri madenciliği uygulama aracı olan WEKA yazılımı üzerinde k-means algoritması kullanılarak yapılan kümeleme analizi sonucu öğrenciler gruplara ayrılmış, bu gruplara özgü stratejiler geliştirilmiştir. Üniversite yönetimlerinin geleceğe yönelik planlamalar yapmak ve stratejiler geliştirmek için bu ve buna benzer veri madenciliği uygulamalarını periyodik olarak tekrarlamaları gerekir.
Machine Learning for Malware Classification and ClusteringEndgameInc
In this talk, we will give an overview of the machine learning model that is the foundation of Endgame’s automated malware classifier. We will discuss challenges and best approaches to finding a metric that adequately summarizes a model's performance recognizing malware and we will show how model results inform the more tactical analysis of malware researchers.
Malware Detection Using Machine Learning TechniquesArshadRaja786
Malware viruses can be easily detected using machine learning Techniques such as K-Mean Algorithms, KNN algorithm, Boosted J48 Decision Tree and other Data Mining Techniques. Among them J48 proved to be more effective in detecting computer virus and upcoming networks worms...
Bu tez çalışmasında NovaproOpen SCADA' sı tanıtılmıştır. NovaproOpen SCADA'sının örnek tesisteki ısıtma ve havalandırma sistemlerine uygulaması anlatılmıştır. Örnek uygulamadıki sısıtma ve havalandırma sistemeleri elektriksel ve mekaniksel kontrolü hakkında bilgi verilmiş, SCADA sistemi tanıtılmış NovaproOpen SCADA sisteminin özellikleri, Sauter EYR 203 F002 PLC' ler ve ECOS EYE 200 DDC' ler ile haberleşmesi anlatılmıştır.
1. T.C.
B˙ILEC˙IK ¸SEYH EDEBAL˙I
ÜN˙IVERS˙ITES˙I
MÜHEND˙ISL˙IK FAKÜLTES˙I
B˙ILG˙ISAYAR MÜHEND˙ISL˙I
˘G
˙I
Makine Ö˘grenme Yöntemlerinin Ara¸stırılması ve Uygulanması
MUSTAFA KÖSTEK
Proje 1
12 Haziran 2014
B˙ILEC˙IK
2. T.C.
B˙ILEC˙IK ¸SEYH EDEBAL˙I
ÜN˙IVERS˙ITES˙I
MÜHEND˙ISL˙IK FAKÜLTES˙I
B˙ILG˙ISAYAR MÜHEND˙ISL˙I
˘G
˙I
Makine Ö˘grenme Yöntemlerinin Ara¸stırılması ve Uygulanması
MUSTAFA KÖSTEK
Proje 1
12 Haziran 2014
B˙ILEC˙IK
3. ÖZET
Projenin Amacı
Makine ö˘grenme yöntemleri adı altında çe¸sitli algoritmaların ö˘grenilmesi ve ilgili simü-lasyon
programı aracılı˘gıyla uygun algoritmanın kullanılması ve sonuçların analiz edil-mesi.
Projenin Kapsamı
Makine ö˘grenme yöntemleri ve kullanım alanları ele almaktadır.Öncelikle konumuz da-hilindeki
sınıflandırma yöntemlerine de˘ginilecek sonra ise ilgili simulator programı ara-cılı
˘gıyla ilgili veriler i¸slenip,proje çıktısı analiz edilecektir.
Sonuçlar
Simulator ortamında makine ö˘grenme yöntemleri uygulanarak yöntemlerin verdi˘gi ce-vapların
kıyaslanmı¸stır.
ii
4. ABSTRACT
Project Objective
Under the name of machine learning methods to learn a variety of algorithms and related
simulation programs through the use of appropriate algorithms and analysis of results.
Scope of Project
Machine learning methods and uses are discussed.First, the issues will be referred to
the methods of classification within our respective related data is processed through the
simulator program, project outcomes will be analyzed.
Results
Simulator environment by applying methods of machine learning methods in the compa-rison
of the answers.
iii
5. TE¸SEKKÜR
Bu projenin ba¸sından sonuna kadar hazırlanmasında eme˘gi bulunan ve beni bu konuya
yönlendiren saygıde˘ger hocam ve danı¸smanım Sayın Emre Dandil’e tüm katkılarından
ve hiç eksiltmedi˘gi deste˘ginden dolayı te¸sekkür ederim.
Mustafa Köstek
12 Haziran 2014
iv
10. Tablo Listesi
1 m ve uzun,orta,kısa niceliklerinden olu¸san veriler . . . . . . . . . . . . . 4
2 Örnek veri setimiz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3 Gün,havadurumu,sicaklik,nem,rüzgar ve oynama durumu ile ilgili veri
kümesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4 Hava durumuna ili¸skin alanların ko¸sullu olasılıkları . . . . . . . . . . . . 9
5 Ve kapısının giri¸s ve çıkı¸sları . . . . . . . . . . . . . . . . . . . . . . . . 14
6 Nesne ve o nesneye ait olan nicelikler(ö˘grenmesiz ö˘grenme) . . . . . . . 25
ix
11. 1 G˙IR˙I
¸S
1.1 Makine ö˘grenmesi nedir?
Çok büyük miktarlardaki verinin elle i¸slenmesi ve analizinin yapılması mümkün de˘gildir.
Amaç geçmi¸steki verileri kullanarak gelecek için tahminlerde bulunmaktır. Bu problem-leri
çözmek için Makine Ö˘grenmesi (machine learning) yöntemleri geli¸stirilmi¸stir. Ma-kine
ö˘grenmesi yöntemleri, geçmi¸steki veriyi kullanarak yeni veri için en uygun modeli
bulmaya çalı¸sır. Verinin incelenip, içerisinden i¸se yarayan bilginin çıkarılmasına [1]’e
göre da Veri Madencili˘gi (data mining) adı verilir.
1.2 Makine ö˘grenmesi algoritmaları
Farklı uygulamaların, analizlerden farklı beklentileri olmaktadır.Makine ö˘grenmesi me-totlarını
bu beklentilere göre sınıflandırmak mümkündür.
Amaç: Bir niteli˘gin de˘gerini di˘ger nitelikleri kullanarak belirlemek...
verinin da˘gılımına göre bir model bulunur. bulunan model, ba¸sarımı belirlendikten
sonra niteli˘gin gelecekteki ya da bilinmeyen de˘gerini tahmin etmek için kullanılır.
model ba¸sarımı: do˘gru sınıflandırılmı¸s sınama kümesi örneklerinin oranı
Veri madencili˘gi uygulamasında:
ayrık nitelik de˘gerlerini tahmin etmek: sınıflandırma
sürekli nitelik de˘gerlerini tahmin etmek: öngörü
Gözetimli (Supervised) sınıflandırma = sınıflandırma
Sınıfların sayısı ve hangi nesnenin hangi sınıfta oldu˘gu biliniyor.
Gözetimsiz (Unsupervised) sınıflandırma = demetleme (clustering)
Hangi nesnenin hangi sınıfta oldu˘gu bilinmiyor. Genelde sınıf sayısı bilinmiyor.
1
12. 2 Ö˘grenmeli Ö˘grenme(Classification)
2.1 Sınıflandırma geçerlili˘gi
Veriye dayalı olarak e˘gitim yapılmasının temel amacı [12]’ya göre e˘gitilen sistemin ben-zer
konuda hiç bilinmeyen bir örne˘ge mantıklı bir cevap üretebilmesidir. Eldeki sınırlı
veri kullanılarak sistemin hem e˘gitilmesi hem de ba¸sarısının tarafsız bir ¸sekilde ölçülebil-mesi
gerekmektedir. Bunun için çapraz geçerlik (cross validation) adıyla anılan yöntemler
kullanılmalıdır. Çapraz Geçerlilik bu temel prensibe dayanarak önerilmi¸s birkaç geçer-lik
yöntemi vardır. Ama hepsinde temel mantık aynıdır. Sistemin ba¸sarısını ölçebilmek
için mevcut veri kümesi ikiye bölünür. Birisi e˘gitim için (train set) di˘geri de sistemin hiç
görmedi˘gi olası örnekleri temsilen (test set) kullanılır. Sistem, seçilen e˘gitim algoritması
ile e˘gitim kümesini ö˘grenir. E˘gitilen sistemin ba¸sarısı daha sonra test kümesi üzerinde
hesaplanır.
2.1.1 Rasgele örnekleme
Rasgele örneklemede kümeler rasgele seçilir. Optimum ba¸sarı için birkaç kez tekrarlanır.
Çapraz geçerlik içerisinde en yüksek ba¸sarıyı sa˘glayan yöntemdir.
2.1.2 K Parçalı
K parçalıda veri, K adet kümeye ayrılır. Birisi test kümesi için ve di˘ger K-1 küme birle¸s-tirilip
e˘gitim kümesi için seçilir. Bu i¸slem kümeler de˘gi¸stirilerek K kez tekrarlanır. Genel
ba¸sarı için K adet ba¸sarı de˘gerinin ortalaması alınır.
2.1.3 Birini hariç tut
Birini hariç tut yöntemi ile K parçalı geçerlik yöntemleri çok benzerdir. N adet örnek
içeren veri kümesi için kullanılan birini hariç tut yöntemi K=N için K parçalı çapraz
geçerlik gibi uygulanır.
2
13. 2.2 E˘gri uydurma
[4]’daki kaynaklardan alınan bilgiler geçmi¸s verilere ait sınıflar yerine sürekli bilginin
yer aldı˘gı problemlerdir. x ekseni hava sıcaklı˘gını, y ekseni de deniz suyu sıcaklı˘gını gös-termektedir.
Bizden istenen hava sıcaklı˘gına ba˘glı olarak deniz suyu sıcaklı˘gının tahmin
edilmesidir. ¸ Sekil 1’de giri¸s ile çıkı¸s arasındaki fonksiyonun e˘grisi bulunmu¸stur.
¸ Sekil 1: Bir do˘gru olarak temsil edilen veri kümesi
w0 + + wny = 0 (1)
peki ya bu do˘gruyu makine nasıl çiziyor?
(x) = 1 x + 2 (2)
˙Ifade 2 alınıp ifade 3’e fonksiyonu parametre olarak gönderilir. 3’de en küçük de˘geri veren
2 fonksiyonunu kabul eder.
H() =
1
2 m
Xm
i=1
((xi) yi)2 (3)
Regresyon 1 nolu ifadeye göre en az hata yapan wi leri bulmaya çalı¸sır.
Basit bir model
Yeterince esnek de˘gil
3
14. 2.3 Karar a˘gaçları
Böl ve yönet stratejisi Nasıl bölece˘giz ?
Ürettikleri kurallar anla¸sılır.
Tablo 1: m ve uzun,orta,kısa niceliklerinden olu¸san veriler
1,73 orta
1,59 kısa
1,98 uzun
1,78 orta
1,65 orta
1,72 orta
1,69 orta
¸ Sekil 2: A˘gaç sınıflandırma yöntemi
Yukarıda Tablo 1 te görüldü˘gü gibi bir veri kümesinin karar a˘gacı ¸ Sekil 2 deki gibi ola-caktır.
Karar dü˘gümleri ve yapraklardan olu¸san hiyerar¸sik bir yapı.
Karar A˘gaçları Olu¸sturma
[6]’deki verilere göre tüm veri kümesiyle ba¸slanır.
Bir özelli˘gin bir de˘gerine göre veri kümesi iki alt kümeye bölünür. Bölmede kulla-nılan
özellikler ve de˘gerler karar dü˘güme yerle¸stirilir.
4
15. Her alt küme için aynı prosedür, her alt kümede sadece tek bir sınıfa ait örnekler
kalıncaya kadar uygulanır.
Karar Dü˘gümleri Nasıl Bulunur ?
Karar dü˘gümlerinde yer alan özelli˘gin ve e¸sik de˘gerinin belirlenmesinde genel ola-rak
entropi kavramı kullanılır.
[5]’den her bir özelli˘gin Bilgi Kazancı (information gain) hesaplanır. Negatif ve
pozitif örneklerden olu¸san bir S kümesi olsun.
S kümesinin Entropy’si hesaplanırken 4’deki ifade kullanılır.
f(s) = p:logp q:logq (4)
S kümesinde 14 örnek olsun: 9 pozitif ve 5 negatif ise,
f(s) = (9=14):log9=14 (5=14):log5=14 = 0:94
4 nolu denklem yardımıyla seçilen iki alan ile 5 nolu bilgi kazancı formülü hesaplanır.
Gain(s; a) = f(s)
X
vV alues(a)
jsvj
jsj
:f (sv) (5)
E˘gitim verisi her bir özelli˘gin her bir de˘geri için ikiye bölünür. Olu¸san iki alt kü-menin
entropileri toplanır. En dü¸sük entropi toplamına sahip olan özellik ve de˘geri
karar dü˘gümüne yerle¸stirilir.
Örnek:
2 nolu tablodaki örneklerde pikni˘ge gitmenin hangi özelli˘gin en baskın oldu˘gunu bulalım.
Tablo 2: Örnek veri setimiz
Hava Nem Rüzgar Su sıcaklı˘gı Pikni˘ge gidelim
güne¸sli normal güçlü ılık evet
güne¸sli yüksek güçlü ılık evet
ya˘gmurlu yüksek güçlü ılık hayır
güne¸sli yüksek güçlü so˘guk evet
5
16. Pikni˘ge gidildimi?
gitme olasılıgı 3/4,gitmeme olasılı˘gı 1/4
f(piknik) = (3=4) log0:75
2 (1=4) log0:25
2 = 0:811
ile piknik ile her bir olayın ko¸sullu olasılı˘gı ile alınarak,
0,811 pikni˘ge gitme olayının entropisi
0,75 havanın güne¸sli olma olasılı˘gı
0 hava güne¸sli iken pikni˘ge gidilmeme oranı
1 havanın güne¸sli iken pikni˘ge gidilmesi
0,25 havanın ya˘gmurlu olma oranı
0 hava ya˘gmurlu iken pikni˘ge gidilme oranı
1 hava ya˘gmurlu iken pikni˘ge gidilmeme oranı
Gain(piknik; hava) = 0:811 (0:75)(1 log1
2 0) (0:25)(0 1 log1
2) = 0:811
aynı ¸sekilde
Gain(piknik; nem) = 0:811(0:25)(1log1
20)(0:75)(0:67log0:67
2 0:33log0:33
2 ) = 0:1225
Gain(piknik; ruzgar) = 0:811 1(0:75 log0:75
2 ) (0:25)(log0:25
2 0:33) = 0
Gain(piknik; susicaklik) = 0:811(0:75)(0:67log0:67
2 0:33log0:33
2 )1(1log1
2) = 0:1225
Bu i¸slemler sonucunda bilgi kazancı en büyük olan hava etkeni oldu˘gundan karar dü˘gü-münde
en tepede hava etmeni bulunacaktır pikni˘ge gidilme olayı için.
Karar A˘gaçlarıyla Sınıflandırma
En tepedeki kök karar dü˘gümünden ba¸sla.
6
17. Bir yapra˘ga gelinceye kadar karar dü˘gümlerindeki yönlendirmelere göre dallarda
ilerle (Karar dü˘gümlerinde tek bir özelli˘gin adı ve bir e¸sik de˘geri yer alır. O dü-
˘güme gelen verinin hangi dala gidece˘gine verinin o dü˘gümdeki özelli˘ginin e¸sik
de˘gerinden büyük ya da küçük olmasına göre karar verilir)
Verinin sınıfı, yapra˘gın temsil etti˘gi sınıf olarak belirle.
2.4 Bayes teoremi
Bir olayın meydana gelmesinde birden fazla etkenin olması ko¸sulunda [3]’den alınan-lardan,
olayın hangi etkenin etkinli˘gi ile ortaya çıktı˘gını gösteren teorem 6 denklemi ile
verilmi¸stir.
p(hjd) =
p(djh)p(h)
p(d)
(6)
p(h)=h olayının önsel olasılı˘gı
p(d)=d e˘gitim verisinin önsel olasılı˘gı
p(djh)=h olayı verildi˘ginde d nin kosullu olasılı˘gı
p(hjd)=d egitim verisi verildi˘ginde h nin ko¸sullu olasılı˘gı
2.4.1 Naive bayes
˙Istatistiksel bir sınıflandırıcıdır. ˙Istatistikteki bayes teoremine dayanır[3]. Örneklerin hangi
sınıfa hangi olasılıkla ait olduklarını öngörür. Basit bir yöntemdir. Ö˘grenme zamanı yok-tur,
yani sınıflandırmadan önce bir ba¸slangıç zamanı gerekmez. Her sınıflandırma için
tüm veri kümesini i¸sler. Elimizde sınıfı belli olmayan bir örüntü olsun. Bu durumda
x = [x(1); x(2); ; x(L)]T 2 RL (7)
sınıfı belli olmayan örüntünün L-boyutlu nicelik vektörü 7 ifadesi ¸selinde olacak. Spam
e-posta örne˘ginden gidecek olursak spam olup olmadı˘gını bilmedi˘gimiz yeni bir e-posta
sınıfı belli olmayan örüntüdür. Yine Si x’in atanaca˘gı sınıf ise;
7
18. Bayes karar teorisine göre x sınıf Si’ya aittir e˘ger P(xjSi) P(xjSj); 8j6= i di-
˘ger bir ifade ile P(xjSi)P(Si) P(xjSj)P(Sj); 8j6= i dir. Verilen bir x’in (x =
[x(1); x(2); ; x(L)]T 2 RL) sınıf Si’ye ait olup olmadı˘gına karar vermek için kullanı-lan
yukarıda formüle edilen Bayes karar teoreminde istatistik olarak ba˘gımsızlık önerme-sinden
yararlanılırsa bu tip sınıflandırmaya Naive bayes sınıflandırılması denir.Matematiksel
bir ifadeyle P(xjSi)P(Si) P(xjSj)P(Sj); 8j6= i ifadesindeki P(xjSi) terimi yeniden
gibi yazılırsa 8 nolu ifade elde edilir.
P(xjSi)
YL
k=1
P(xkjSi) (8)
böylece Bayes karar teoremi 9 nolu ifade ¸seklini alır. Bayes karar teorisine göre x sınıf
Si’ya aittir e˘ger
P(xjSi)
YL
k=1
P(xkjSi) P(xjSj)
YL
k=1
P(xkjSj) (9)
P(Si) ve P(Sj) i ve j sınıflarının öncel olasılıklarıdır. Elde olan veri kümesinden de-
˘gerleri kolayca hesaplanabilir. Naive bayes sınıflandırıcının kullanım alanı her nekadar
kısıtlı gözüksede yüksek boyutlu uzayda ve yeterli sayıda veriyle x’in (nicelik kümesi)
bile¸senlerinin istatistik olarak ba˘gımsız olması ko¸sulu esnetilerek ba¸sarılı sonuçlar elde
edilebilinir.
Tablo 3: Gün,havadurumu,sicaklik,nem,rüzgar ve oynama durumu ile ilgili veri kümesi
Gün havadurumu sicaklikderecesi nemoranı ruzgar oynamadurumu
d1 güne¸s sıcak yuksek zayıf hayır
d2 güne¸s sıcak yuksek siddetli hayır
d3 bulut sıcak yuksek zayıf evet
d4 ya˘gmur ılık yuksek zayıf evet
d5 ya˘gmur serin normal zayıf evet
d6 ya˘gmur serin normal siddetli hayır
d7 bulutlu serin normal siddetli evet
d8 güne¸sli ılık yuksek zayıf hayır
d9 güne¸sli serin normal zayıf evet
d10 ya˘gmur ılık normal zayıf evet
d11 güne¸s ılık normal siddetli evet
d12 bulut ılık yuksek siddetli evet
d13 bulut sıcak normal zayıf evet
d14 ya˘gmur ılık yuksek siddetli hayır
Tablo 3 de gerekli islemler yapilarak Tablo 4 elde edilir.
8
19. Tablo 4: Hava durumuna ili¸skin alanların ko¸sullu olasılıkları
havadurumu
p(gunes|evet)=2/5 p(gunes|hayır)=3/5
p(bulut|evet)=4/4 p(bulut|hayır)=0
p(ya˘gmur|evet)=3/5 p(yagmur|hayır)=2/5
sıcaklık
p(sıcak|evet)=2/4 p(sıcak|hayır)=3/4
p(ılık|evet)=4/6 p(ılık|hayır)=2/6
p(serin|evet)=3/4 p(serin|hayır)=1/4
nemoranı
p(yuksek|evet)=3/7 p(yuksek|hayır)=4/7
p(normal|evet)=6/7 p(normal|hayır)=1/7
Ruzgar
p(siddetli|evet)=3/6 p(siddetli|hayır)=3/6
p(zayıf|evet)=6/8 p(zayıf|hayır)=2/8
Bu a¸samadan sonra ko¸sullu olasılıklar hesap edilecektir.
p(evet)=9/14
p(hayır)=5/15
Yeni örnek X =ya˘gmur,sıcak,yüksek,zayıf
P(evet|X)=?
P(ya˘gmurlu|evet)P(sıcak|evet)P(yüksek|evet)P(zayıf|evet)P(evet)
3/52/43/76/89/14 =0.062
P(hayır|X) = ?
P(ya˘gmurlu|hayır)P(sıcak|hayır)P(yüksek|hayır)P(zayıf|hayır)P (hayır)
2/52/44/72/85/14 =0.01
P(evet|X)P(hayir|X) oldu˘gundan örnek X’in sınıfı evet olarak öngörülür.
Kullanım Alanları
Metin sınıflandırma, konu¸smacı tanıma sistemleri ¸sifre kontrolü uygulamaları ,orta veya
geni¸s e˘gitim kümesinin mevcut,orta veya geni¸s e˘gitim kümesinin mevcut olması duru-munda
,örnekleri tanımlayan nitelikler, sınıflandırmadan ba˘gımsız olarak verildi˘ginde.
Avantaj ve Dezavantajları
Avantajları: Kolay uygulanabilirlik, üstün performans ço˘gu durumda iyi sonuçlar
Dezavantajları: Varsayım,sınıf bilgisi verildi˘ginde nitelikler ba˘gımsız gerçek hayatta de-
9
20. ˘gi¸skenler birbirine ba˘gımlı de˘gi¸skenler arası ili¸ski modellenemiyor, test verisinin uzun
i¸slem zamanıdır.
Çözüm: Bayes a˘gları
2.4.2 Bayes a˘gları
[13]’de sunumlardan bayesçi a˘glarda dü˘gümler (nodes) rastlantı de˘gi¸skenlerini,dü˘gümler
arasındaki ba˘glar(edges) ise rastlantı de˘gi¸skenleri arasındaki olasılıksal ba˘gımlılık du-rumlarını
gösterir.Bayes a˘gları yönlü dönü¸ssüz grafik(Drected acyclic graph DAG) olarak
bilinen bir grafiksel model yapısına sahiptir. Bu a˘glar kesin olmayan uzman görü¸slerinin
sisteme girmesini sa˘glayan önemli bir yöntemdir.Bayes kuralındaki gibi ko¸sullu olasılık-ları
yine kullanılacaktır.DAG yapısı dü˘gümler kümesi ve yönlendirilmi¸s ba˘glar kümesi
olmak üzere iki kümeden olu¸sur.Dü˘gümler rastlantı de˘gi¸skenlerini temsil eder,daire bi-çiminde
gösterilir.Ba˘glar ise de˘giskenleri arasındaki dogrudan ba˘glımlılıkları belirtir ve
dü˘gümler arasında çizili oklarla gösterilir.xi ve xj agdaki iki dugum olmak üzere ,xi dü-
˘gümünden xj dü˘gümüne do˘gru çizilen bir ba˘g kar¸sılık geldikleri de˘gi¸skenler de˘gi¸skenler
arasındaki istatistiksel ba˘gımlılı˘gın bir göstergesidir.xi dü˘gümünden xj dü˘gümünün ebe-veyni
,xj dü˘gümünün ise xi dü˘gümünün çocu˘gu oldu˘gu söylenebilir.Ayrıca ,a˘gdaki bir
dü˘gümden çıkan dü˘güme gelen yol uzerinden yer alan dü˘gümler kümesine soy dü˘güm-ler,
bir dü˘güme gelen yol üzerinde yer alan dü˘gümler kümesi ise ata dü˘gümler olarak
tanımlanmı¸stır. X,y,z, rastlantı de˘gi¸skenleri tanım kümeleri sırasıyla ux; uy; uz bu rast-lantı
de˘gi¸skenlerinin çok de˘gi¸skenli olasılık fonksiyonu Pxyz bu degiskenlerin aldıgı tüm
x 2 ux; y 2 uy; z 2 uz de˘gerleri için Px;y;zx; y; z = Pxjzxjz Pyjzyjz Pzz yazılabili-yorsa
z bilindi˘gine göre ,x ve y nin ko¸sullu ba˘gımsız oldugu söylenir ve x?yjz biçiminde
yazılır.x?yjz ise Pyjzyjz 0 e¸sitsizliklerinin saglayan x 2 Ux; y 2 Uy; z 2 Uz tüm
de˘gerleri için Pxjy;zxjy; z = Pxjz xjz yazılabilir. Grafın a˘gların niceliklerini olarak ta-nımlanan
parametrelerin belirlenmesi gerekir.Bu parametreler a˘gdaki her bir dü˘güme ait
ko¸sullu olasılıklar,yalnızca kendi ebeveynleri ba˘glı olarak tanımlanır.Bu tablolarda ebe-veynlerin
aldıgı de˘gerleri alma olasılıkları yer alır.Bu tablolara ko¸sullu olasılık tablosu
denir.Bayes a˘glarında ,bir X = x1; :::; xn rastlantı degi¸skenleri kümesine ili¸skin çok de-
˘gi¸skenli olasılık da˘gılımını temsil eden bir DAG tır.A˘g G ve Q olmak üzere iki bile¸senden
10
21. olu¸sur.BN=GQ biçiminde gösterilir.˙Ilk bile¸sen G,dü˘gümlerin x1; :::; xn rastlantı de˘gi¸sken-lerini
arasındakı do˘grudan ba˘gımlılık ları verecektir.Bayes a˘glarının ikinci bileseni Q, a˘g-daki
parametrelerin kümesini gösterir.Bu parametreler,bayesçi a˘gdaki her bir x,rastlantı
de˘gi¸skenine ili¸skin ko¸sullu olasılık da˘gılımlarıdır.Bir xi rastlantı de˘gi¸skeni için ko¸sullu
olasılık da˘gılımı ,xi nin G deki ebeveynlerinin kümesi i,olmak üzere Qxiji = Pbnxiji
biçiminde tanımlanır.Bir rastlantı de˘gi¸skeninin verilen bayesçi a˘gda bir ebeveyni yoksa
bu rastlantı de˘gi¸skeni için ko¸sullu olasılık da˘gılımı ,marjinal olasılık da˘gılımına kar¸sılık
gelir.Her bir de˘gi¸skene ait marjinal yada ko¸sullu olasılık da˘gılımları genel olarak yerel
olasılıklar dagılımı olarak adlandırılır.Bu parametrelerden bayes a˘g yapısından yararla-nılarak
x = x1; x2; xn için tek bir çok de˘gi¸skenli olasılık da˘gılımı tanımlanır ve bu
da˘gılım a¸sa˘gıdaki e¸sitlikten yararlanılarak elde edilir.Çok de˘gi¸skenli olasılık da˘gılımının
bu e¸sitli˘gi denklem 10 ile ifade edilir bu kural zincir kuralı olarak adlandırılır.
Qx1; ;xn;
Yn
i=1
xiji;
Yn
i=1
Qxijn (10)
Bir bayesçi a˘ga yeni bilgi girildi˘ginde a˘gdaki de˘gi¸skenlerin ba˘gımsızlık durumuna d-ayrılık
özeli˘ginden yaraklanılarak karar verilir.Nedensel bir a˘gda yer alan iki de˘gi¸sken
a ve b olmak üzere bu de˘gi¸skenler arasında tüm yolları kesen bir c de˘gi¸skeni varsa ve a
ile b arasında ¸ Sekil 3’deki gibi dizisel ¸sekilde,
¸ Sekil 3: Seri ¸sekilde yollar
yada serilen ba˘g varsa ve C nin durumu biliniyorsa yada a ile b arasında birle¸sen bag varsa
ve c yada c nin soy dü˘gümleri hakkında herhangi bir bilgi yoksa aile b de˘gi¸skenlerinin
¸ Sekil 4’teki gibi d-ayrıolur.
11
22. ¸ Sekil 4: Ayrılmı¸s ¸sekildeki yollar
a ile b d ayrı de˘gil se d baglı olarak adlandırılır ve ¸ Sekil 5 gibi ¸sematize edilir.
¸ Sekil 5: Birle¸sen yollar
Bayesçi a˘glarda çıkarsamalar ilgilenilen de˘gi¸skenlerin marjinal da˘gılımları hesaplana-rak(
ili¸skisiz degiskenler üzerinden çok de˘gi¸skenli olasılık da˘gılımının toplamı alınarak)
yapılır.Bayesçi a˘glarda çıkarsamalar en genel anlamda iki ¸sekilde gerçekle¸sir.Bunlardan
ilkinde ,bir dü˘güme ebeveyn dü˘gümleri vasıtasıyla ba˘glı olan bilgi dü˘gümlerinden yarala-nılarak
gerçekle¸stirilir.Bu hesaplama yöntemi yukarıdan a¸sa˘gıya çıkarsama olarak ad-landırılır.
Di˘ger çıkarsama yönteminde ise bir dü˘güme çocuk dü˘gümleri vasıtasıyla ba˘glı
olan bilgi dü˘gümlerine dayanır.Bu yöntem a¸sa˘gıdan yukarıya çıkarsama olarak adlan-dırılır.
A˘g yapısının ögrenilmesi ,parametrelerin ögrenilmesinden daha zor bir problem-dir.
Ayrıca gizli dü˘gümler yada kayıp veri gibi kısmi gözlenebilirlik durumu söz konusu
oldu˘gunda ba¸ska zorluklarda ortaya çıkar.Genellikle,farklı ö˘grenme yöntemlerinin öne-rildigi
¸ Sekil 6’daki gibi dört farklı ögrenme durumu söz konusudur.
12
23. ¸ Sekil 6: Bayes a˘glarında söz konusu dört durum)
Bayesci ag yapısının ögrenilmesinde verilen bir D = x1; x2; :::; xn ögrenme veri kumesi
için em uygun «B» bayesçi a˘gının bulunması amaçlanır.Bunun için de genellikle bir skor
fonksiyonundan yararlanılır.Bu skor fonksiyonlarından en sık kullanılanları :
bayesci skor fonksiyonu ve en kucuk tanım uzunlugu ilkesine dayalı bir fonksiyonu de-nir.
Ekt ilkesi veriyi özetlemeye dayalı olarak ögrenmeyi gerçekle¸stirir.Bu ilkede amaç,orjinal
verinin en kısa tanımını yapabilmektedir.b = (Gj) bir bayesci ag ve D=x1; x2; ; xn
ögrenme veri kumesi olsun.D verildi˘ginde B a˘gına ili¸skin ekt skor fonksiyonu denklem
11 ile formulize edilmi¸stir.
ektBjD =
logN
2
jBj LL(BjD) (11)
|B| a˘gdaki parametre sayısıdır.LL(B|D) ise bilindi˘ginde B’nin logaritmik olabilirlik fonsi-yonudur.
LL(BjD) =
NP
i=1
log PBxi bir bayesçi a˘g sınıflandırıcısı C sınıf de˘gi¸skeni x1; x2; ; xn
di˘ger de˘gi¸skenler olmak üzere X = (x1; x2; ; xn) olasılı˘gını modelleyen bayesçi a˘g B
olsun.Bu sınıflandırıcı B üzerinden PB = (cjx1; x2; ; xn) sonsal olasılı˘gını maksimum
yapan C sınıflarını belirler.
argmaxPB
c CjX1;X2; ;Xn Literaturde,sınıflandırma için kullanılan Bayes a˘g yapısını
belirleyen bir çok farklı yakla¸sım mevcuttur.
a. Tree augmented naive(tan) bayes sınıflandırıcısı
b. Bayes naive augmented(ban)
c. Bayesian multinet
13
24. d. Genel bayesçi a˘g
2.5 YSA(Yapay sinir a˘gları)
˙Insan beynindeki sinir hücrelerinin i¸slevini modelleyen yapı [2]’den alınanlara göre;
¸ Sekil 7 deki gibi birbiri ile ba˘glantılı katmanlardan olu¸sur.
¸ Sekil 7: Yapay sinir a˘g katmanları(perseptronlar)
Katmanlar hücrelerden olu¸sur.
Katmanlar arasında iletim
˙Ileti katmanlar arasındaki ba˘gın a˘gırlı˘gına ve her hücrenin de˘gerine ba˘glı olarak
de˘gi¸sebilir.
Tablo 5 de verildi˘gi gibi giri¸sler ve beklenen çıkıları belirtilmi¸stir. ¸ Sekil 8 ve ¸ Sekil 9 de
karakutu yakla¸sımı,giri¸sler ile a˘gırlıkları ¸sematize edilmi¸stir.
Tablo 5: Ve kapısının giri¸s ve çıkı¸sları
birincil ikincil netice
0 0 0
0 1 0
1 0 0
1 1 1
14
25. ¸ Sekil 8: Yapay sinir a˘gının yakla¸sımı
¸ Sekil 9: Ysa’nın ö˘grenme ¸sekli
netice = I(0:5 birincil + 0:5 ikincil t 0) (12)
I(z) =
8 :
0 z 0 ise
1 diger
(13)
Birbiri ile ba˘glantılı nöronlar ve a˘gırlıklar
Denklem 14 teki gibi çıkı¸s nöronu kendisine gelen giri¸sleri a˘gırlıklı olarak topluyor
12 nolu ifadede çıkı¸s nöronu bir e¸sik de˘geri ile kar¸sıla¸stırılıyor
X
netice = I(
i
X
wiXi t); netice = sign(
i
wiXi t) (14)
15
26. ¸ Sekil 10: Ysa’nın aktivasyon fonksiyonu
¸ Sekil 10 de bir aktivasyon fonksiyonu ¸sematize edilmi¸stir.
Yapay sinir a˘gını ö˘grenme: a˘gırlıkları ö˘grenme
Yapay Sinir A˘gı ile Ö˘grenme
Yapay sinir a˘gı olu¸sturma giri¸s verisini modelleme
Gizli katman sayısını, gizli katmanlardaki nöron sayısını belirleme
Yapay sinir a˘gını e˘gitme
Sinir a˘gını küçültme
Sonucu yorumlama
Yapay Sinir A˘gını Olu¸sturma
Giri¸s nöron sayısı
Ö˘grenme kümesindeki verilerin nitelik sayısı
Gizli nöron sayısı ö˘grenme sırasında ayarlanır
Çıkı¸s nöron sayısı sınıf sayısı
Yapay Sinir A˘gını E˘gitme
16
27. Amaç: Veri kümesindeki örneklerin hepsini do˘gru sınıflandıracak a˘gırlıkları belir-lemek
A˘gırlıklara rasgele de˘gerler ata ö˘grenme kümesindeki giri¸s de˘gerlerini teker teker
sinir a˘gına uygula
Çıkı¸sı hesapla
Hata de˘gerini hesapla
A˘gırlıkları hata fonksiyonunu en küçültecek ¸sekilde düzelt
X
i
(Yi f(wi;Xi))2 (15)
Denklem 15 ile hata de˘geri hesaplanır.
Yapay Sinir A˘gını Küçültme
Tam ba˘glı a˘gın anla¸sılması çok güç
n giri¸s nöron, h gizli nöron, m çıkı¸s nöronu h(m+n) a˘gırlık
Küçültme: a˘gırlıklardan bazıları sınıflandırma sonucunu etkilemeyecek ¸sekilde si-linir.
Avantaj dezavantajları
Do˘gru sınıflandırma oranı genelde yüksek
Kararlı ö˘grenme kümesinde hata oldu˘gu durumda da çalı¸sıyor
Çıkı¸s ayrık, sürekli ya da ayrık veya sürekli de˘gi¸skenlerden olu¸san bir vektör olabi-lir
Ö˘grenme süresi uzun
Ö˘grenilen fonksiyonun anla¸sılması zor
17
28. 2.5.1 Çok katmanlı algılayıcılar
Algılayıcı ve Adaline yöntemleri do˘grusal olmayan çözümler üretemedi˘gi için hem mi-mari
hem de e˘gitim algoritması açısından iyile¸stirilmi¸s Çok Katmanlı Algılayıcı (MLP)
a˘gı önerilmi¸stir. Mimari açıdan do˘grusal olmayan aktivasyon fonksiyonuna sahip birçok
nöronun birbirine hiyerar¸sik olarak ba˘glandı˘gı bir yapıya sahip olan MLP, Algılayıcı ve
Adaline yöntemlerinin avantajları yanı sıra geri-yayılım adındaki ö˘grenme sistemini kul-lanmaktadır.
aktivasyon fonksiyonu
Genel kavram olarak aktivasyon fonksiyonu, bir de˘gi¸skeni farklı bir boyuta ta¸sıyan do˘g-rusal
veya do˘grusal olmayan bir fonksiyondur. Türevinin kolay alınabilmesi e˘gitim hızını
arttırır. Sıklıkla kullanılan üç aktivasyon fonksiyonu vardır; Sigmoid,Hiperbolik Tanjant
ve Adım Basamak.
s(net) =
1
1 + enet (16)
s(net) =
8
:
1 net = 0 ise
1 net 0
(17)
s(net) =
1 e2net
1 + e2net (18)
Denklem 16 sigmoid fonksiyonunu,denklem 17 birim basamak,denklem 18’de hiperbolik
tanjant fonsiyonunu belirtmektedir.
2.5.2 Radyal tabanlı sinir a˘gları
Radyal tabanlı a˘glar, duyarlı almaç bölgelerinin oldu˘gu giri¸s tabakası, radyal tabanlı nö-ronları,
¸ Sekil 11, içeren gizli tabaka ve ço˘gunlukla do˘grusal aktivasyon fonksiyonlu nö-ronlardan
ibaret çıkı¸s tabakasından olu¸sur.Radyal tabanlı a˘glar, geriyayılım algoritmalı
ileri beslemeli a˘glardan daha fazla nöron kullanımına ihtiyaç duyabilirse de e˘gitim süresi
çok daha kısadır. Yo˘gun e˘gitim verisiyle daha iyi sonuçlar verir.[11]’dan alınan verilerden
yaralanılmı¸stır.
18
29. ¸ Sekil 11: Radyal tabanlı nöron
Radyal tabanlı transfer fonksiyonunun net giri¸si, a˘gırlık vektörü, w, ile giri¸s vektörü, p’nin
vektörel uzaklı˘gının bias terimi ile çarpımıdır. w ile p arasındaki uzaklık azaldıkça transfer
fonksiyonunun çıkı¸sı artar ve uzaklık sıfırken çıkı¸s maksimum de˘geri 1’e ula¸sır. w ile p
arasındaki uzaklık arttıkça çıkı¸s sıfıra gider.
¸ Sekil 12: Radyal tabanlı fonksiyon
¸ Sekil 12 de radyal tabanlı fonksiyon ve radyal tabanlı bir a˘gın topolojisi ¸ Sekil 13’de gös-terilm
¸stir.
19
30. ¸ Sekil 13: Radyal tabanlı a˘g topolojisi
2.6 Destek vektör makinesi
SVM, Vladimir Vapnik ve Alexey Chernovenkis tarafından istatistiksel ö˘grenme teorisi
kullanarak türetilmi¸s [7]’den alınan kaynaklara göre.Sınıfları birbirinden ayıran özel bir
çizginin (hyperplane) nin bulunmasını amaçlar. Bu çizgi iki sınıfa en uzak olan çizgidir.
E˘gitim verileri kullanılarak hyperplane bulunduktan sonra, test verileri sınırın hangi tara-fında
kalmı¸ssa o sınıfa dahil edilir. ¸ Sekil 14 de verildi˘gi gibi lineer olarak ayrılması sa˘g-lanır.
Sequential Mimimal Optimization, SMO (Ardı¸sık minimal optimizasyon metodu)
olarakta adı geçmektedir.
¸ Sekil 14: Destek vektör makinesi ile ayırma
Lineer olarak ayrılamayan örneklerde veriler daha yüksek boyutlu ba¸ska bir uzaya ta¸sınır
ve sınıflandırma o uzayda yapılır. A¸sa˘gıdaki ¸sekilde örnekler lineer olarak ayrılamaz iken,
¸ Sekil 15 de üç boyutlu uzayda denklem 19 ile ayrılabilmektedir.
20
31. x21
; x22
; (2 x1 x2)0:5 (19)
Peki nasıl ayrılıyor?
SVM’de,lineer olmayan özellikler için kernel (çekirdek) terimi kullanılır,K(xi; xj)
sembol ile gösterilir
Kerneller kullanarak, SVM lineer olmayan sınıflandırma için kullanılabilir
SVM problemi, bu ¸sekilde yazılabilir (dual ¸sekli adlandırılan ifade 20 ve ifade 21
ve 22 da ise durumları gösterilmi¸stir);
max
X
ai
1
2
X
aiajyiyj(xi xj) (20)
X
aiyi = 0 (21)
0 aiyi C (22)
˙Ifade 20’nin en sa˘gındaki parametre skalar oldu˘gundan dolayı xi xj = K(xi; xj)
yazaca˘gız.
4 farklı çekirdek opsiyonu vardır.
1. K(xi; xj) = e
(xi xj)2
22 en çok kullanılan,
2. K(xi; xj) = (xi yj)d homojen polinom kerneli,
3. K(xi; xj) = (1 + xi yj)d homojen olmayan polinom kerneli,
4. K(xi; xj) = tanh(c + k xi yj) homojen polinom kerneli,
21
32. ¸ Sekil 15: Lineer olarak ayrılamayan verilerin sınıflandırılması
3 Ö˘grenmesiz Ö˘grenme(Clustering)
[8]’daki verilerden kümeleme algoritmaları e˘giticisiz ö˘grenme metotlarıdır.
Örneklere ait sınıf bilgisini kullanmazlar.
Temelde verileri en iyi temsil edecek vektörleri bulmaya çalı¸sırlar.
Verileri temsil eden vektörler bulunduktan sonra artık tüm veriler bu yeni vektör-lerle
kodlanabilirler ve farklı bilgi sayısı azalır.
Bu nedenle birçok sıkı¸stırma algoritmasının temelinde kümeleme algoritmaları yer
almaktadır.
Elimizde tek boyutlu 10 örnek içeren bir verimiz olsun.
12 15 13 87 4 5 9 67 1 2
Bu 10 farklı veriyi 3 farklı veri ile temsil etmek istersek
12 12 12 77 3 3 3 77 3 3
¸seklinde ifade ederiz. Gerçek de˘gerler ile temsil edilen de˘gerler arasındaki farkı minimum
yapmaya çalı¸sır.
Yukarıdaki örnek için 3 küme olu¸smu¸stur.
12-15-13 örnekleri 1. kümede
87-67 örnekleri 2. kümede
4-5-1-2-9 örnekleri 3. kümede yer almaktadır.
Ölçeklenebilirlik
22
33. Farklı tipteki niteliklerden olu¸san nesneleri demetleme
Farklı ¸sekillerdeki demetleri olu¸sturabilme
En az sayıda giri¸s parametresi gereksinimi
Hatalı veriler ve aykırılıklardan en az etkilenme
Model olu¸sturma sırasında örneklerin sırasından etkilenmeme
Çok boyutlu veriler üzerinde çalı¸sma
Kullanıcıların kısıtlarını göz önünde bulundurma
Sonucun yorumlanabilir ve anla¸sılabilir olması
˙Iyi Demetleme
˙Iyi demetleme yöntemiyle elde edilen demetlerin özellikleri;
aynı demet içindeki nesneler arası benzerlik fazla , farklı demetlerde bulunan nes-neler
arası benzerlik az
Olu¸san demetlerin kalitesi seçilen benzerlik ölçütüne ve bu ölçütün gerçeklenme-sine
ba˘glı
Uzaklık Benzerlik nesnelerin nitelik tipine göre de˘gi¸sir
Nesneler arası benzerlik: s(i; j)
Nesneler arası uzaklık: d(i; j) = 1 s(i; j)
˙Iyi bir demetleme yöntemi veri içinde gizlenmi¸s örüntüleri bulabilmeli
Veriyi gruplama için uygun demetleme kriteri bulunmalı
demetleme = aynı demetteki nesneler arası benzerli˘gi en büyüten, farklı demetler-deki
nesneler arası benzerli˘gi en küçülten fonksiyon
Demetleme sonucunun kalitesi seçilen demetlerin ¸sekline ve temsil edilme yönte-mine
ba˘glı
23
34. Peki temel demetleme yala¸sımları nelerdir?
1. Bölünmeli yöntemler: Veriyi bölerek, her grubu belirlenmi¸s bir kritere göre de˘ger-lendirir
2. Hiyerar¸sik yöntemler: Veri kümelerini (ya da nesneleri) önceden belirlenmi¸s bir
kritere göre hiyerar¸sik olarak ayırır
3. Yo˘gunluk tabanlı yöntemler: Nesnelerin yo˘gunlu˘guna göre demetleri olu¸sturur
4. Model tabanlı yöntemler: Her demetin bir modele uydu˘gu varsayılır. Amaç bu mo-dellere
uyan verileri gruplamak
3.1 Bölünmeli yöntemler
Amaç: n nesneden olu¸san bir veri kümesini (D); k; (k n) demete ayırmak ayrılan her
demette en az bir nesne bulunmalı ayrıca her nesne sadece bir demette bulunmalı
Yöntem:Demetleme kriterini en büyütücek ¸sekilde D veri kümesi k gruba ayırma
Global çözüm: Mümkün olan tüm gruplamaları yaparak en iyisini seçme (NP kar-ma
¸sık)
Sezgisel çözüm: k-means ve k-medoids
k-means 1: Her demet kendi merkezi ile temsil edilir
k-medoids2: Her demet, demette bulunan bir nesne ile temsil edilir
3.1.1 k-kom¸su(k-means)
E˘giticisiz bir yöntem olan K-Mean Clustering, eldeki verileri özelliklerine göre hiçbir
sınıf bilgisi olmadan K sayıda kümeye gruplama i¸slemidir. Gruplama, ilgili cluster’ın
centroid (merkez) de˘geri ile veri setindeki her objenin/nesnenin arasındaki farkın kareleri
toplamının minimumu alınarak gerçekle¸stirilir. Objelerin sınıflandırılması i¸slemi gerçek-le
¸stikten sonra her bir sınıfa veya kümeye ilgili etiketin verilmesi uzman bir ki¸si tarafından
1 MacQueen tarafından 67 yılında bulunmu¸stur.
2PAM (Partition around medoids) (Kaufman Rousseeuw’87)
24
35. yapılır [4]’daki verilere göre.
Örnek:
E˘gitim setinizde 4 adet objenin oldu˘gu ve her bir objenin iki özelli˘ge sahip oldu˘gunu var-sayalım.
Tablo 6: Nesne ve o nesneye ait olan nicelikler(ö˘grenmesiz ö˘grenme)
Nesne Ozelik1(A˘gırlık indeksi(X)) Ozellik2(Y)pH
medicinea 1 1
medicineb 2 1
medicinec 4 3
medicined 5 4
Öncelikle bilinmesi gereken objelerin kaç kümeye ayrılaca˘gıdır (bu örnek Tablo 6 için 2
olsun, Cluster 1 ve Cluster 2). Esas problem ise bu ilaç objelerinin hangisinin Cluster 1,
hangisinin Cluster 2’ye ait oldu˘gudur.
Öncelikle cluster (küme) sayısına karar verilir (k)
Herbir cluster’ın centroid/merkez noktası belirlenir
Ba¸slangıç centroid’leri olarak veri setinden rasgele k nokta seçilebilir veya
Veriler sıralanarak her k ve k’nın katlarında yer alan de˘gerler centroid noktaları
olarak alınabilir
Daha sonra K-means algoritmasında, cluster’lar içerisinde yer alan objeler hare-ketsiz
kalıncaya kadar yani yer de˘gi¸stirmeyinceye kadar üç a¸samadan olu¸san i¸slem
tekrarlanır
Centroid noktalarına karar verilir
Her objenin centroid noktalarına olan uzaklıkları hesaplanır
Her obje minimum uzaklı˘gı sahip oldu˘gu cluster’a atanır
K-means demetleme çe¸sitleri
25
36. K-Means demetlemeye ba¸slamadan önce yapılanlar
Veri kümesini örnekleyerek hiyerar¸sik demetleme yap. Olu¸san k demetin orta-lamasını
ba¸slangıç için merkez nokta seç
Ba¸slangıçta k’dan fazla merkez nokta seç. Daha sonra bunlar arasından k tane
seç.
K-Means demetleme i¸slemi sonrasında yapılanlar
Küçük demetleri en yakın ba¸ska demetlere dahil et
En büyük toplam karesel hataya sahip olan demeti böl
Merkez noktaları birbirine en yakın demetleri birle¸stir
Toplam karesel hatada en az artı¸sa neden olacak iki demeti birle¸stir
K-Means demetleme algoritmasının özellikleri
Gerçeklemesi kolay
Karma¸sıklı˘gı di˘ger demetleme yöntemlerine göre az
K-Means algoritması bazı durumlarda iyi sonuç vermeyebilir
Veri grupları farklı boyutlarda ise
Veri gruplarının yo˘gunlukları farklı ise
Veri gruplarının ¸sekli küresel de˘gilse
Veri içinde aykırılıklar varsa
3.1.2 K-medoids demetleme yöntemi
Her demeti temsil etmek için demet içinde orta nokta olan nesne seçilir.
1, 3, 5, 7, 9 ortalama:5
1, 3, 5, 7, 1009 ortalama=205
1, 3, 5, 7, 1009 orta nokta=5
26
37. Medoids demetleme yöntemi
PAM (Partitioning Araound Medoids 1987)
Ba¸slangıçta k adet nesne demetleri temsil etmek üzere rasgele seçilir xik
Kalan nesneler en yakın merkez nesnenin bulundu˘gu demete dahil edilir
Merkez nesne olmayan rasgele bir nesne seçilir xrk
xrk merkez nesne olursa toplam karesel hatanın ne kadar de˘gi¸sti˘gi bulunur
23 nolu denklem Tcik 0 ise xrk merkez nesne olarak atanır
Demetlerde de˘gi¸siklik olu¸smayana kadar Merkez nesne olmayan rasgele bir nesne
seçilir xrk i¸slemi gerçeklenir.
nk=k demeti içindeki nesne sayısı xjk=k demeti içindeki j. nesne
Tcik =
nk X
j=1
(xik xjk)2
nk X
j=1
(xrk xjk)2 (23)
Özellikler
Küçük veri kümeleri için iyi sonuç verebilir, ancak büyük veri kümeleri için uygun
de˘gildir [14]’deki verilere göre.
3.2 Hiyerar¸sik yöntemler
Demet sayısının belirlenmesine gerek yok ancak sonlanma kriteri belirlenmesi gereki-yor.
A¸sa˘gıdan yukarıya agglomerative,yukarıdan a¸sa˘gıya divisive denir.
AGNES (AGglomerative NESting):
Kaufmann ve Rousseeuw tarafından 1990 yılında önerilmi¸stir.
Birinci adımda her nesne bir demet olu¸sturur.
Aralarında en az uzaklık bulunan demetler her adımda birle¸stirilir.
Bütün nesneler tek bir demet içinde kalana kadar yada istenen sayıda demet
elde edene kadar birle¸stirme i¸slemi devam eder.
27
38. DIANA (DIvisive ANAlysis):
Kaufmann ve Rousseeuw tarafından 1990 yılında önerilmi¸stir.
AGNES’in yaptı˘gı i¸slemlerin tersini yapar.
En sonunda her nesne bir demet olu¸sturur.
Her nesne ayrı bir demet olu¸sturana ya da istenilendemet sayısı elde edene
kadar ayrılma i¸slemi devam eder.
Hiyerar¸sik demetleme
Dendogram: Demetler hiyerar¸sik olarak a˘gaç yapısı ¸seklinde görüntülenebilir
Ara dü˘gümler çocuk dü˘gümlerdeki demetlerin birle¸smesiyle elde edilir
Kök: bütün nesnelerden olu¸san tek demet
Yapraklar: bir nesneden olu¸san demetler
Dendogram istenen seviyede kesilerek demetler elde edilir
A¸sa˘gıdan yukarıya demetleme
Algoritma
Uzaklık matrisini hesapla
Her nesne bir demet
Tekrarla
En yakın iki demeti birle¸stir
Uzaklık matrisini yeniden hesapla
Sonlanma: Tek bir demet kalana kadar
Uzaklık matrisini hesaplarken farklı yöntemler farklı demetleme sonuçlarına neden
olurlar
Hiyerar¸sik demetleme yöntemlerinin özellikleri
Demetleme kriteri yok
28
39. Demet sayılarının belirlenmesine gerek yok
Aykırılıklardan ve hatalı verilerden etkilenir
Farklı boyuttaki demetleri olu¸sturmak problemli olabilir
Yer karma¸sıklı˘gı - O(n2)
Zaman karma¸sıklı˘gı - O(n2logn) ve n : nesne sayısı
3.3 Yo˘gunluk tabanlı yöntemler
Demetleme nesnelerin yo˘gunlu˘guna göre yapılır.
Ba¸slıca özellikleri:
Rastgele ¸sekillerde demetler üretilebilir.
Aykırı nesnelerden etkilenmez.
Algoritmanın son bulması için yo˘gunluk parametresinin verilmesi gerekir.
Ba¸slıca yo˘gunluk tabanlı yöntemler:
DBSCAN: Ester, et al. (KDD’96)
OPTICS: Ankerst, et al (SIGMOD’99).
DENCLUE: Hinneburg D. Keim (KDD’98)
CLIQUE: Agrawal, et al. (SIGMOD’98)
3.3.1 DBSCAN
˙Iki parametre:
Eps: En büyük kom¸suluk yarıçapı
MinPts: Eps yarıçaplı kom¸suluk bölgesinde bulunan en az nesne sayısı
Neps(p) : q 2 Djd(p; q) Eps
29
40. Do˘grudan eri¸silebilir nesne: Eps ve MinPts ko¸sulları altında bir q nesnesinin do˘g-rudan
eri¸silebilir bir p nesnesi ¸su ¸sartları sa˘glar:
p 2 Neps(q)
q nesnesinin çekirdek nesne ko¸sulunu sa˘glaması Neps(q) MinP ts
Eri¸silebilir nesne:
Eps ve MinPts ko¸sulları altında q nesnesinin eri¸silebilir bir p nesnesi olması
için:
p1; p2; ; pn nesne zinciri olması
p1 = q; pn = p
pi nesnesinin do˘grudan eri¸silebilir nesnesi:pi+1
Yo˘gunluk ba˘glantılı Nesne:
Eps ve MinPts ko¸sulları altında q nesnesinin yo˘gunluk ba˘glantılı nesnesi p ¸su
ko¸sulları sa˘glar:
p ve q nesneleri Eps ve MinPts ko¸sulları altında bir o nesnesinin eri¸silebilir
nesnesidir.
Yo˘gunluk tabanlı yöntemlerin özellikleri
Veri tabanındaki her nesnenin Eps yarıçaplı kom¸suluk bölgesi ara¸stırılır.
Bu bölgede MinPts’den daha fazla nesne bulunan p nesnesi çekirdek nesne olacak
¸sekilde demetler olu¸sturulur.
Çekirdek nesnelerin do˘grudan eri¸silebilir nesneleri bulunur.
Yo˘gunluk ba˘glantılı demetler birle¸stirilir.
Hiçbir yeni nesne bir demete eklenmezse i¸slem sona erer.
Yer karma¸sıklı˘gı - O(n)
Zaman karma¸sıklı˘gı - O(n log n) n: nesne sayısı
30
41. 3.4 Model tabanlı demetleme yöntemleri
Veri kümesi için öngörülen matematiksel model en uygun hale getiriliyor.
Verinin genel olarak belli olasılık da˘gılımlarının karı¸sımından geldi˘gi kabul edilir.
Model tabanlı demetleme yöntemi
Modelin yapısının belirlenmesi
Modelin parametrelerinin belirlenmesi
Örnek EM (Expectation Maximization) Algoritması
Demetlemede amaç gizli de˘gi¸skenleri bulmak: sınıf bilgisi
Gizli de˘gi¸skenler veri üzerinde bir olasılık fonksiyonu ile matematiksel olarak ifade
edilebilen bir olasılıksal da˘gılımdır
Örnek: Satılan dijital kameraların sınıfı
Profesyonel veya amatör (C1 ve C2)
Her sınıf için iki olasılık yo˘gunluk fonsiyonu: f1 ve f2
Olasılıksal karı¸sım modelleri gözlenen verinin farklı olasılık da˘gılımları ile temsil
edilen demetlerin örnekleri oldu˘gunu varsayar
Gözlenen verideki her örnek birbirinden ba˘gımsız
˙Istatistiksel olarak:
K nesneden olu¸san bir veri kümesi D = x1; x2; ; xK
8xi(i 2 [1; K]) nesnesi parametre kümesiyle tanımlanan bir olasılık da˘gı-lımından
olu¸sturulur.
Olasılık da˘gılımının, cj 2 C = c1; c2; ; cG ¸seklinde G adet bile¸seni vardır.
8g; g 2 [1; :::;G] parametre kümesi g bile¸seninin olasılık da˘gılımını belirleyen,
kümesinin ayrı¸sık bir alt kümesidir.
P
Herhangi bir xi nesnesi öncelikle, p(cgj) = g; (
G g = 1) olacak ¸sekilde
31
42. bile¸sen katsayısına (ya da bile¸senin seçilme olasılı˘gına) göre bir bile¸sene atanır.
Bu bile¸sen p(xijcg; g) olasılık da˘gılımına göre xi de˘gi¸skenini olu¸sturur.
Böylece bir xi nesnesinin bu model için olasılı˘gı bütün bile¸senlerin olasılıkla-rının
toplamı denklem 24 ve 25 ile ifade edilebilir:
p(xi; ) =
XG
g=1
p(cgj)p(xijcg; g) (24)
p(xi; ) =
XG
g=1
gp(xijcg; g) (25)
Model parametrelerinin belirlenmesi
Maximum Likelihood (ML) yakla¸sımı denklem 26’deki gibidir.
`ML(1; ; G; 1; ; GjD) =
YK
i=1
XG
g=1
gp(xijcg; g) (26)
Maximum aposteriori (MAP) yakla¸sımı 27 deki gibi olacaktır.
`MAP (1; ; G; 1; ; GjD) =
YK
i=1
XG
g=1
gp(xijcg; g)p()
D
(27)
Uygulamada her ikisinin logaritması 28 ve 29 ile ifade edilebilir.
L(1; ; G; 1; ; GjD) =
XK
i=1
ln
XG
g=1
gp(xijcg; g) (28)
L(1; ; G; 1; ; GjD) =
XK
i=1
ln
XG
g=1
gp(xijcg; g) + lnp() (29)
3.4.1 EM algoritması
Veri kümesi: D = x1; x2; ; xK
Gizli de˘gi¸skenler H = z1; z2; ; zk (her nesnenin hangi demete dahil oldu˘gu bil-gisi)
32
43. zj = xj ; y1j ; y2j ; ; yGjxj verisi ci demetinde ise yij = 1
Verinin eksik oldu˘gu durumda, tam verinin beklenen de˘geri 30 nolu denklem ile
hesaplanır.
Q(; 0) = E(Lc(D;Hj)jD; 0) =
XK
i=1
XG
g=1
p(Cgjxi)[ln p(xijcg) + ln g] (30)
E ve M adımları
˙Iki adım arasında yinelemeli
E adımı: ’ parametrelerine dayanarak eksik veri için en iyi olası kestirimler
M adımı: Eksik veri atandı˘gında yeni parametrelere ili¸skin kestirimler
EM Algoritmasının adımları:
’ için ba¸slangıç de˘gerleri atama
(E) Expectation: Q(j0) hesaplanması
(M) Maximization: argmaxQ(j0)
Normal da˘gılım için EM algoritması
xj verisi ci demetinde ise yij = 1 de˘gilse yij = 0
E adımı: p(ci; xj ; l) = p(yij = 1; l) =
p(xj jci; l
i; l
i)p(ci)
PG
g=1 P(cg)p(xj jcg; l
i; l
i)
hij
Normal da˘gılım için:P(xj jci; i; ) =
1
(2)d=2d exp
(xj i)2
22
Madımında ise p(ci) =
P
j hij
K
ve l+1
i =
P
j hijxj P
j hij
ayrıca l+1
i =
P
j hij(xj l
i)(xj l
i)T
P
j hij
4 ˙Ili¸skili(Associate)
4.1 Appriori(ili¸skilendirme)
Bir süpermarkette, x ürününü alan mü¸sterilerin yüzde 80’i y ürününü de alıyorsa, x ürü-nünü
alıp, y ürününü almayan mü¸steriler, y ürününün potansiyel mü¸sterileridir. Mü¸sterile-
33
44. rin sepet bilgilerinin bulundu˘gu bir veri tabanında potansiyel y mü¸sterilerini bulma i¸slemi
türündeki problemler ili¸ski belirme yöntemleri ile çözülür.[9]
Sepet analizi
Raf düzenlemesi
Promosyonlar
34
45. Makine ö˘grenme simulatörü
Piyasada bu alanda birden çok program mevcuttur.Biz hem kolay bulunması ve de kolay
anla¸sılır arayüzü nedeniyle weka’yı kullanaca˘gız.Programın arayüzü ¸ Sekil 16 da gösteril-mi
¸stir.
5 Weka
[7]’e göre Weka’nın açılımı Waikato Environment for Knowledge Learning.Bu program
Yeni Zelanda’nın Waikato üniversitesi tarafından geli¸stirilmi¸stir.Weka programı ile veri-leri
öni¸sleme,sınıflandırma,demetleme gibi i¸slemleri data tipine göre i¸sliyebiliyoruz.
5.1 Ortam tanıtımı
Explorer:Bu sekme veri ön i¸sleme secilen özeli˘ge ait istatistiklerin görüntülenmesini sa˘g-layan
forma götüren sekmedir.
Knowledge Flow:Sürükle bırak mantı˘gına göre belirli komponentlerle yapılan islemlerin
yapılmasını sa˘glayan forma götürür.
¸ Sekil 16: Waikato üniversitesi tarafından geli¸stirilmi¸s bir makine ö˘grenme simülasyonu
35
46. Yukarıdaki formda explorer sekmesi tıklandı˘gında ¸ Sekil 17 daki form açılır.Bu asamadan
sonra formun üst kısmındaki butonlarla asıl i¸simiz.Yukarıda sözü geçen perprocess,classify,cluster
vb. dü˘gmeler.
¸ Sekil 17: Seçilen veri kümesinin öni¸slemeye tabi tutulması için gereken form ekranı
5.2 Veri alınması
Open file sekmesini tıklatıp ilgili kaynak kodumuz csv,arff yada ilgili veritabanı ba˘glantısı
aracılı˘gıyla dataları çekebiliyoruz.Ancak biz farklı yollara girmeyip arff dosya formatında
bahsedersek, ¸ Sekil 18 deki gibi olmalıdır.
Yani javadaki class’ın ismi ile dosyanın adının aynı olması gibi ili¸skilendirilebilir.alanlar:
@relation ’dosyaismi’
@attribute degiskenadi dizitipidegiskenleri
36
47. ¸ Sekil 18: Weka’da arff dosya formatının veri yapısı,veriler
yada
@attribute degiskenadi (numeric,real,vb..)
@data
sonra ilgili veriler girdi˘gimiz alan kadar girilip alt satırda kayıtlar devam edilir.
˙Ilgili .arff dosyamızı Open file butonuyla açtıktan sonra Filter sekmesinin altında ili¸skili
dosyanın adı kaç tane örneklemesinin oldu˘gu kaç adet sütun alanının oldu˘gu bilgileri
¸ Sekil 19 de,sa˘g üstteki kısımda sol alttaki seçilmi¸s olan alana göre istatistiki verileri herbir
alanından kaç adet veri oldu˘gu bilgisi string grid komponentine yazılmı¸s hemen altındaki
chart grafiginde ise secilen alanla ilgili görsel istatiski kullanıcıya ¸ Sekil 20 de göstermi¸stir.
5.2.1 Kullanaca˘gımız yöntemler
Kullanılan yöntemlere geçmeden önce ¸ Sekil 21 deki gibi sınıflandırma geçerlili˘gi buton-ları
vardır. use training set çekbaksını tiklersek bütün datayı pratik olarak alacaktır.Daha
sonra test yapmak istedi˘gimizde aynı duzene sahip bir formatta bir dosya olu¸sturarak
supplied test set çekbaksı aracılı˘gla test ederiz.
37
48. ¸ Sekil 19: Weka’da veri ön i¸sleme ekranı
¸ Sekil 20: Sol alttaki çekbaksların seçilerek ilgili istatistiklerin gösterilmesi
38
49. cross validation
çekbaksı tiklendi˘ginde ise veri,textbakstaki sayi k olursa k adet kümeye ayrılır. Birisi test
kümesi için ve di˘ger K-1 küme birle¸stirilip e˘gitim kümesi için seçilir. Bu i¸slem kümeler
de˘gi¸stirilerek K kez tekrarlanır. Genel ba¸sarı için K adet ba¸sarı de˘gerinin ortalaması alınır.
¸ Sekil 21: Wekada ö˘grenmeli ö˘grenmede pratik yöntemleri
Percentage split
çekbaksı tiklendi˘ginde ise yüzde olarak kısmını e˘gitimde kalan kısmını ise test a¸sama-sında
kullanır.
5.3 Kullanılan yöntemlerin cevap açıklamaları
Correctly classified instances=Sinifi do˘gru belirlenen sayisi(datanın)
incorrectly classified instances=Sinifi yanlis belirlene sayisi(sa˘glıksız veri)
mean absolute error=tam hata degeri
root mean squared error=gerçel hatanın karesi
Relative absolute error =göreceli tam hata
Root relative absolute error =göreceli tam hatanın karekökü
total number of instances =toplam örnekleme sayisi
tp rate=do˘gru sınıflandırılmı¸s örnek sayisinin tümüne oranı
fp rate=yanlı¸s sınıflandırılmı¸s örnek sayisinin tümüne oranı
39
50. precision=pozitif do˘gruların bütün pozitiflere oranı
recall=pozitif do˘gruların pozitif do˘grularla negatif yanlı¸sların toplamına oranı
accuracy=(do˘gruların tümüne oranı)
düzensizlik matrisi
a b
2 1 a=0
5 3 b=1
Burada 2 a da do˘gru örneklenen sayisi
Burada 3 b de do˘gru örneklenen sayisi
5 ise b olarak verilen ancak a da olan
1 a da verilen ancak b de sınıflandırılmı¸stır.
5.4 Görsel komponentlerle i¸sleme
5.4.1 Nereden yapılır?
Weka arayüzü ana menüden knowledge flow butonu tıklanarak ¸ Sekil 22’ deki gibi.
40
51. ¸ Sekil 22: Weka’da knowledge flow butonu
5.4.2 Yükleme(loader) Durumu
Gelen arayüzden DataSource sekmesi yardımıyla ¸ Sekil 23’deki gibi butonlar gelecek-tir.
Bu sekmeler yardımıyla bundan sonraki a¸sama olan alan seçme i¸slemi gerçeklenecek-tir.
Genelde arff loader kompanenti kullanıyoruz.
¸ Sekil 23: Data Source sekmesi içeri˘gi
41
52. 5.4.3 Kayıt ediciler
Bu sekme ile biz hedef dosyada farklılıkları kayıt edebiliyoruz.Bu sekmenin içeri˘ginde
¸ Sekil 24’de oldu˘gu gibi komponentler bulunur.
¸ Sekil 24: Data Sink sekmesi içeri˘gi
5.4.4 Filtreler
Filtre sekmesi ¸ Sekil 25’deki ö˘grenmeli ve ö˘grenmesiz olmak üzere iki tiptir.
¸ Sekil 25: Filtreler
5.4.5 Sınıflayıcılar
Ö˘grenmeli ö˘grenme yöntemlerinin algoritmaları içerir,veriyi loader dan sınıf atamaları ve
seçilmesi yapıldıktan sonra e˘gitim ve test verileri’ni gönderecek olan komponente oradan
da söz konusu algoritma ile i¸slenecek daha sonra ise sınıflanırma yada demetleme dö-nü
¸stürücüsüne ilgili parametreleri aktaracaktır ayrıca bayes ve a˘gaç uygulamalarında da
görsel sekmeden grafik komponentine aktarılarak graf ve karar a˘gacının yapısı görüntü-lenebilir.
¸ Sekil 26 deki gibi komponentler mevcuttur.
¸ Sekil 26: Data Classifier sekmesi
42
53. 5.4.6 Demetleyiciler
Ö˘grenmesiz ö˘grenme yöntemlerinin ö˘grenmeli de oldu˘gu gibi ¸ Sekil 27’deki simgeler tıkla
bırak yaparak kullanıyoruz.
¸ Sekil 27: Data Clusterer sekmesi
5.4.7 ˙Ili¸skilendirmeler
Veri madencili˘ginin önemli bir kolu olan ili¸skilerin ke¸sfini sa˘glayan ayrıca ili¸skilendirme
komponentleri ¸ Sekil 28’deki gibi tanımlanmı¸stır.
¸ Sekil 28: Data Associate sekmesi
5.4.8 Konvertör komponentler
Bu elemanlar ise arff loader çekilen verilerin alanlarının tanınması,sınıflandırılacak olan
özeli˘gi seçme ayrıca sınıflandırma yapıldıktan sonra ilgili metottan dönecek olan hata ve
sınıflandırma detaylarını parametre olarak alır olarak alır ve ilgili komponentlere gön-derir,
bu yönüyle binevi aktarma görevi üstlenmi¸stir.Bu komponentler ¸ Sekil 29’deki gibi
tanımlanmı¸stır.
¸ Sekil 29: Data Evaluation sekmesi
5.4.9 Görsel komponentler
Yüklenen verilen görsel olarak incelenmesinin yanı sıra ö˘grenme algortimalarında dö-nen
parametrelerin(e¸sik de˘geri,hata vb.) görüntülenmesi sa˘glayan komponentleri barındı-
43
54. rır.Görüntüsü ¸ Sekil 30’deki gibidir.
¸ Sekil 30: Data Visualization sekmesi
Birkaç örnek yapalım
¸ Sekil 31’da oldu˘gu gibi öncelikle arff loader simgesi ,sonra ise class assigner simgesi
eklendi sonra ise çapraz do˘grulama ,graph viewer,j48,graph viewer,classifier perfor-mance
evaluator,text viewer,model performance chart komponentlerini ekliyoruz.Bu
siralama ¸su an önemli de˘gil ancak ba˘glantıları açısında sıralı olarak eklememiz ¸sekilsel
olarak anlamamıza yardımcı olacaktır. arff loader simgesini sol klikle dosyayı yüklüyo-ruz
sonra sa˘g klikleyip dataset seçip class assigner’a ba˘glıyoruz.Aynı ¸sekilde class As-signer
simgesinin sa˘g klikleyip datasetini cross validation fold maker simgesine gönde-riyoruz.
Bu a¸samadan sonra aynı ¸sekilde cross validation fold maker simgesi sa˘g tıklanıp
e˘gitim ve test okları j48 simgesine yönlendiriyoruz.J48’in aynı ¸sekilde sa˘g klikleyip graph
seçip graph viewer simgesiyle birle¸stiriyoz.J48 den devam edersek sa˘g tıklayıp batch clas-sifiers
özeli˘gini secip classifier performance evaluator simgesine yönlendiriyoruz bu kom-ponentten
de visualizable error parametresini mdel performace chart ’a sonuç verileri olan
text dosyalarını ise text viewer’a gönderip anla¸sılabilir sonuçları analiz edilir.Peki i¸slem
nasıl ba¸slatılır?
¸Söyle arff loader simgesinin üzerine gelinip sq˘g tıklatılıp start loading sekmesi tıklan-dı
˘gında i¸slem ba¸slatılmı¸s olunacak ve analiz yapmak için son uçlardaki komponentlerin
üzerine sa˘g tıklantılıp show result ya da bu bir chart ise show cart secene˘gi seçilerek
sonuçlar incelenebilir.
44
55. ¸ Sekil 31: J48 karar a˘gacından olu¸san bir sistem
Aynı ¸sekilde ¸ Sekil 32’de buna benzer bir örnek yalnızca burada bir nüans farkı class value
picker kompenenti mevcut bu eleman ise bizim veriyi hangi alana göre sınıflandırılaca-
˘gına olanak sa˘glayan opsiyondur.
¸ Sekil 32: Bayes ö˘grenmesini ili¸skin sistem
¸ Sekil 33’de gösterilen örnekte ise ö˘grenmesiz ö˘grenen bir sistem tasarlanmı¸stır bu sis-tem
yukarıdaki örneklerden pek farklı de˘gildir ancak söz konusu bu durumda yine bir
farklılık gözümüze çarpacaktır,o da classifier performance evalutor yerine clusterer
performance evalutor yani anla¸sılaca˘ga üzere sınıflandırma ile demetleme metotlarının
i¸slemesi biribirinden farklı oldu˘gu için farklı bir konvertör kullanmamızdır.
45
56. ¸ Sekil 33: Ö˘grenmesiz ö˘grenme yöntemi olan k-means kullanımı
A¸sa˘gıdaki ¸ Sekil 34’de gösterilen sistemde ise bir çok katmalı algılayıcı tabanlı bir sistem
gösterilmi¸stir.
¸ Sekil 34: ÇKA’lı bir simulasyon arayüzü
46
57. SONUÇLAR
¸ Sekil 35 de tree algoritması kullanılarak veriler i¸slenmesi sonra ¸ Sekil 36 deki gibi ilgili
butonlar aracılı˘gıyla veri kümesindeki a˘gaç yapısı çizdirilmi¸stir.Son olarak ¸ Sekil 37 te ise
agaç yapısı gösterilmistir.
¸ Sekil 35: A˘gaç sınıflandırma metodu kullanarak verilerin i¸slenmesi
47
58. ¸ Sekil 36: Wekada j48 a˘gaç metodu ile karar a˘gacının görüntülenmesi
¸ Sekil 37: ˙Ilgili veri kümesinin karar a˘gacı
¸ Sekil 38 de ise destek vektör makinesi kullanılarak verinin i¸slenmesi sonuçları ayrıca
¸ Sekil 39 de ise makinenin hangi çekirde˘gi kullanarak gerçekleyece˘gi gösterilmektedir.
48
59. ¸ Sekil 38: Destek vektör makinesi(bu programdaki adıyla smo) yöntemi kullanılarak veri
i¸sleme
¸ Sekil 39: Destek vektör makinesi için ilgili çekirde˘gin seçimi
49
60. Altta bulunan ¸ Sekil 40 de ise lineer regression yöntemi kullanılarak veriler i¸slenmistir.
¸ Sekil 40: Lineer regression yöntemi kullanılarak ilgili verilerin do˘gruya uydurulması
¸ Sekil 41,42 de ise Ysa adi altında çka algoritması kullanılarak i¸sleme,ve ¸ Sekil 43,44 de ki
gibi katmanlar görüntülenmi¸stir.
50
61. ¸ Sekil 41: Çok katmanlı algılayıcı yöntemi kullanılarak veri i¸sleme
¸ Sekil 42: ˙Iris’e ait olan verilerin mla ile i¸slenmesi
51
63. futbol.arff,iris.arff veri kümelerinin ¸ Sekil 45 ve ¸ Sekil 46 de ise naive bayes, kullanılarak
ve ise ¸ Sekil 47 ve ¸ Sekil 48 de bayes a˘gları ile i¸slenmi¸stir.
¸ Sekil 45: Bayes yöntemi ile veri i¸slenmesi
¸ Sekil 46: ˙Iris’e ait verilerin bayes ile i¸slenmesi
53
64. ¸ Sekil 47: Naive bayes yöntemi ile i¸slenmesi
¸ Sekil 48: ˙Iris’e ait verilerin naive bayes yöntemi ile i¸slenmesi
Ö˘grenmesiz ö˘grenme yöntemi olan k-means ile veri sınıflandırması ¸ Sekil 49 deki gibi
gerceklenmi¸stir.
54
65. ¸ Sekil 49: Ö˘grenme yöntemi olan k-means ile sınıflandırma
Son olarak birden çok olan sınıflama algoritmalarının veri tipinin büyüklü˘gü,verideki
alanların çoklu˘gu verisetinin lineer olarak sınıflandırılıp sınıflandırılamadı˘gı,veride yan-lı
¸s sınıflandırmaların olması gibi ölçütlere ba˘glı olarak ¸ Sekil 50’deki gibi sınıflandırma
tipleri seçilebilir.
¸ Sekil 50: Veri setinin büyüklü˘gü,sınıflandırılacak olan alanın kaç farklı tipi ol-du
˘gu,alanların sayısına göre sınıflandırma algoritmalarının ba¸sarımı
55
66. Kaynaklar
[1] http://tr.wikipedia.org/wiki/Veri_madencili˘gi
[2] Öztemel, E., 2006, Yapay Sinir A˘gları, Papatya Yayıncılık, ˙Istanbul
[3] http://www.ninova.itu.edu.tr/EgitimDetay.aspx?eId=195
[4] Dr.Banu Diri’a ait kaynaklardan alınmı¸stır.
[5] http://dms.irb.hr/tutorial/tut_dtrees.php
[6] O. T. Yıldız, E. Alpaydın, Univariate and Multivariate Decision Trees, Tainn 2000
[7] http://www.kernel-machines.org/
[8] Doç. Dr. ¸ Sule Gündüz Ö˘güdücü’e ait kaynaktan alınmı¸stır.
[9] An Introduction to the WEKA Data Mining System
[10] http://sourceforge.net/projects/weka/files/
documentation/3.7.x/WekaManual-3-7-11.pdf/download?
use_mirror=garrdownload=
[11] http://okulsel.net/docs/index-23863.html?page=4
[12] Yrd.Doç.Dr Umut Orhan’a ait kaynaklardan alınmı¸stır.
[13] www.slideshare.com
[14] CLARA (Kaufmann Rousseeuw, 1990) CLARANS (Ng Han, 1994)
56
67. ÖZGEÇM˙I
¸S
K˙I
¸S˙ISEL B˙ILG˙ILER
Adı Soyadı :Mustafa Köstek
Uyru˘gu : T.C
Do˘gum Yeri ve Tarihi: Çayıralan 09/05/1993
Adres : Balıkesir
——-
Telefon : 5549935366
e-mail : mustafakostek@gmail.com
E˘G
˙IT˙IM DURUMU
Lisans Ö˘grenimi : Bilecik ¸Seyh Edebali Üniverstesi, Bilecik
Bitirme Yılı : 2015
Lise : T.C Balıkesir Edremit Anadolu Lisesi
˙I
¸S DENEY˙IMLER˙I
Yıl :
Kurum : ——-
Stajlar : ˙Izsu stajyer
˙ILG˙I
ALANLARI
YABANCI D˙ILLER : ˙Ingilizce
57