1. PENGENALAN Ruang Masalah dan
Masalah, KECERDASAN BUATAN
( ArtificialPencarian / AI )
Intelligence
(2 SKS)
Ir. Ahmad Haidaroh, M.Kom.
Ir. Ahmad Haidaroh, M.Kom.
STIKOM Artha Buana.
3. Decision Tree
• Merupakan salah satu contoh aplikasi dari
tree
• Tree (pohon) adalah suatu hierarki struktur
yang terdiri dari Node (simpul/veteks) yang
menyimpan informasi atau pengetahuan dan
cabang (link/edge) yang menghubungkan
node.
• Decision tree – pohon keputusan
– Menggunakan model tree untuk
menggambarkan keputusan-keputusan dan
konsekuensinya
STIKOM Artha Buana 3
5. Logika Deduktif
Logika deduktif : kesimpulan merupakan konsekuensi logis
dari premis-premis yang ada
Mengambil kesimpulan khusus dari premis yang bersifat
umum
Pengambilan kesimpulan dapat secara langsung (hanya 1
premis) atau tidak langsung (beberapa premis)
Karakteristik pokok : kesimpulan benar harus mengikuti
dari premis yang benar
Premis disebut juga anteseden dan kesimpulan disebut
konsekuen
Salah satu jenis logika deduktif tidak langsung adalah
syllogisme STIKOM Artha Buana 5
6. Struktur Syllogisme
• Terdiri 3 proposisi / pernyataan
– Premis mayor
– Premis minor
– Kesimpulan
• Jenis Silogisme :
– Silogisme kategorial
– Silogisme hipotesis
– Silogisme alternatif
STIKOM Artha Buana 6
7. a. Silogisme Kategorial : Silogisme yang terjadi
dari tiga proposisi.
Premis umum : Premis Mayor (My)
Premis khusus :Premis Minor (Mn)
Premis simpulan : Premis Kesimpulan (K)
M : middle term
S : subjek
P : predikat
STIKOM Artha Buana 7
8. • Contoh silogisme Kategorial:
My : Semua mahasiswa adalah lulusan SLTA
M/Middle term P/Major term
Mn: Badu adalah mahasiswa
S/Minor term M/Middle term
K : Badu lulusan SLTA
My : Tidak ada manusia yang kekal
Mn: Andi adalah manusia
K : Andi tidak kekal
My : Semua mahasiswa memiliki ijazah SLTA.
Mn: Amir tidak memiliki ijazah SLTA
K : Amir bukan mahasiswa
STIKOM Artha Buana 8
9. b. Silogisme Hipotesis: Silogisme yang terdiri atas premis
mayor yang berproposisi konditional hipotesis.
• Konditional hipotesis yaitu : bila premis minornya
membenarkan anteseden, simpulannya membenarkan
konsekuen. Bila minornya menolak anteseden,
simpulannya juga menolak konsekuen.
• Contoh :
o My : Jika tidak ada air, manusia akan kehausan.
Mn : Air tidak ada.
K : Jadi, Manusia akan kehausan.
o My : Jika tidak ada udara, makhluk hidup akan mati.
Mn : Makhluk hidup itu mati.
K : Makhluk hidup itu tidak mendapat udara.
STIKOM Artha Buana 9
10. c. Silogisme Alternatif : Silogisme yang terdiri atas
premis mayor berupa proposisi alternatif.
• Proposisi alternatif yaitu bila premis minornya
membenarkan salah satu alternatifnya, simpulannya
akan menolak alternatif yang lain.
Contoh :
• My : Nenek Sumi berada di Bandung atau
Jakarta.
• Mn : Nenek Sumi berada di Bandung.
• K : Jadi, Nenek Sumi tidak berada di Jakarta.
• My : Nenek Sumi berada di Bandung atau Bogor.
• Mn : Nenek Sumi tidak berada di Jakarta.
• K : Jadi, Nenek Sumi Artha Buana di Bandung.
STIKOM
berada 10
11. Forward Chaining
• Forward chaining merupakan grup dari multipel
inferensi yang melakukan pencarian dari suatu
masalah kepada solusinya.
• Forward Chaining adalah data driven karena
inferensi dimulai dengan informasi yg tersedia dan
baru konklusi diperoleh
• Mencari aturan inferensi sampai ditemukan satu
dimana anteseden (If clause) bernilai true. Ketika
ditemukan, bisa ditarik kesimpulan, menghasilkan
informasi baru.
STIKOM Artha Buana 11
12. Forward Chaining
• Contoh : Menentukan warna binatang
bernama Tweety. Data awal adalah Tweety
terbang dan bernyanyi.
• Misalkan ada 4 aturan :
– If x melompat dan memakan serangga, maka
x adalah katak
– If x terbang dan bernyanyi, maka x adalah
burung kenari
– If x adalah katak, maka x berwarna hijau
– If x adalah burung kenari, maka x berwarna
kuning
STIKOM Artha Buana 12
13. Forward Chaining
• Yang dicari pertama adalah aturan nomor
1, karena anteseden-nya cocok dengan
data kita (if Tweety terbang dan bernyanyi)
• Konsekuen (then Tweety adalah burung
kenari) ditambahkan ke data yang dimiliki
• If tweety adalah burung kenari, maka
Tweety berwarna kuning (tujuan)
STIKOM Artha Buana 13
14. Backward Chaining
• Dimulai dengan tujuan (goal) yang diverifikasi apakah
bernilai TRUE atau FALSE
• Kemudian melihat rule yang mempunyai GOAL tersebut
pada bagian konklusinya.
• Mengecek pada premis dari rule tersebut untuk
menguji apakah rule tersebut terpenuhi (bernilai TRUE)
• Proses tersebut berlajut sampai semua kemungkinan
yang ada telah diperiksa atau sampai rule inisial yang
diperiksa (dg GOAL) telah terpenuhi
• Jika GOAL terbukti FALSE, maka GOAL berikut yang
dicoba. STIKOM Artha Buana 14
15. Backward Chaining
• Dimulai dari daftar tujuan dan bergerak ke
belakang dari konsekuen ke anteseden
untuk melihat data yang mendukung
konsekuen.
• Mencari sampai ada konsekuen (Then
clause) yang merupakan tujuan. Jika
antecedent (If clause) belum diketahui
nilainya (bernilai benar/salah), maka
ditambahkan ke daftar tujuan.
STIKOM Artha Buana 15
16. Backward Chaining
• Contoh : Menentukan warna binatang bernama
Tweety. Data awal adalah Tweety terbang dan
bernyanyi.
• Misalkan ada 4 aturan :
– If x melompat dan memakan serangga, maka x
adalah katak
– If x terbang dan bernyanyi, maka x adalah burung
kenari
– If x adalah katak, maka x berwarna hijau
– If x adalah burung kenari, maka x berwarna kuning
STIKOM Artha Buana 16
17. Backward Chaining
• Pertama akan mencari aturan 3 dan 4 (sesuai dengan
tujuan kita mencari warna)
• Belum diketahui bahwa Tweety adalah burung
kenari, maka kedua anteseden (If Tweety adalah
katak, If Tweety adalah burung kenari) ditambahkan
ke daftar tujuan.
• Lalu mencari aturan 1 dan 2, karena konsekuen-nya
(then x adalah katak, then x adalah burung kenari)
cocok dengan daftar tujuan yang baru ditambahkan.
STIKOM Artha Buana 17
18. Backward Chaining
• Anteseden (If Tweety terbang dan
bernyanyi) bernilai true/benar, maka
disimpulkan Tweety adalah burung kenari.
• Tujuan menentukan warna Tweety
sekarang sudah dicapai (Tweety berwarna
hijau jika katak, dan kuning jika burung
kenari, Tweety adalah burung kenari
karena terbang dan bernyanyi, jadi Tweety
berwarna kuning).
STIKOM Artha Buana 18
19. Contoh Kasus
• Seorang user ingin berkonsultasi apakah tepat jika dia
berinvestasi pada IBM?
Variabel-variabel yang digunakan:
A = memiliki uang $10.000 untuk investasi
B = berusia < 30 tahun
C = tingkat pendidikan pada level college
D = pendapatan minimum pertahun $40.000
E = investasi pada bidang Sekuritas (Asuransi)
F = investasi pada saham pertumbuhan (growth stock)
G = investasi pada saham IBM
Setiap variabel dapat bernilai Artha Buana atau FALSE
STIKOM
TRUE 19
20. Contoh Kasus
• Fakta
– Memiliki uang $10.000 (A TRUE)
– Berusia 25 tahun (B TRUE)
• Dia ingin meminta nasihat apakah tepat
jika berinvestasi pada IBM stock?
STIKOM Artha Buana 20
21. • Rules
R1 : IF seseorang memiliki uang $10.000 untuk berinvestasi
AND dia berpendidikan pada level college
THEN dia harus berinvestasi pada bidang sekuritas
R2 : IF seseorang memiliki pendapatan per tahun min $40.000
AND dia berpendidikan pada level college
THEN dia harus berinvestasi pada saham pertumbuhan (growth
stocks)
R3 : IF seseorang berusia < 30 tahun
AND dia berinvestasi pada bidang sekuritas
THEN dia sebaiknya berinvestasi pada saham pertumbuhan
R4 : IF seseorang berusia < 30 tahun dan > 22 tahun
THEN dia berpendidikan college
R5 : IF seseorang ingin berinvestasi pada saham pertumbuhan
THEN saham yang dipilih adalah saham IBM.
STIKOM Artha Buana 21
22. • R1: IF A AND C, THEN E
• R2: IF D AND C, THEN F
• R3: IF B AND E, THEN F
• R4: IF B, THEN C
• R5: IF F, THEN G
STIKOM Artha Buana 22
25. Penalaran
Suatu penalaran dimana adanya
penambahan fakta baru mengakibatkan
ketidakkonsistenan,
ciri-ciri penalaran sebagai berikut :
− adanya ketidakpastian
− adanya perubahan pada pengetahuan
− adanya penambahan fakta baru dapat
mengubah konklusi yang sudah terbentuk
STIKOM Artha Buana 25
26. Penalaran
Contoh :
• Premis 1 : Aljabar adalah pelajaran yang sulit
• Premis 2 : Geometri adalah pelajaran yang sulit
• Premis 3 : Kalkulus adalah pelajaran yang sulit
• Kesimpulan : Matematika adalah pelajaran yang
sulit
• muncul premis 4 : sosiologi adalah pelajaran
yang sulit, akan menyebabkan kesimpulan
(Matematika adalah pelajaran yang sulit)
menjadi tidak berlaku karena sosiologi bukan
bagian dari matematika
• penalaran induktif sangat dimungkinkan adanya
ketidakpastian.
STIKOM Artha Buana 26
27. Ketidakpastian (uncertainty)
Kurang informasi yang memadai
Menghalangi untuk membuat keputusan
yang terbaik
Salah satu teori yang berhubungan dengan
ketidakpastian : Probabilitas Bayes
STIKOM Artha Buana 27
28. Probabilitas
Probabilitas menunjukkan kemungkinan
sesuatu akan terjadi atau tidak
STIKOM Artha Buana 28
29. Probabilitas
Contoh :
Misal dari 10 orang sarjana , 3 orang menguasai
java, sehingga peluang untuk memilih sarjana
yang menguasai java adalah :
p(java) = 3/10 = 0.3
STIKOM Artha Buana 29
31. Probabilitas Bayes
Contoh :
Asih mengalami gejala ada bintik-bintik di wajahnya. Dokter menduga bahwa
Asih terkena cacar dengan :
− probabilitas munculnya bintik-bintik di wajah, jika Asih terkena cacar
→ p(bintik | cacar) = 0.8
− probabilitas Asih terkena cacar tanpa memandang gejala apapun →
p(cacar) = 0.4
− probabilitas munculnya bintik-bintik di wajah, jika Asih terkena alergi
→ p(bintik | alergi) = 0.3
− probabilitas Asih terkena alergi tanpa memandang gejala apapun →
p(alergi) = 0.7
− probabilitas munculnya bintik-bintik di wajah, jika Asih jerawatan →
p(bintik | jerawatan) = 0.9
− probabilitas Asih jerawatan tanpa memandang gejala apapun →
p(jerawatan) = 0.5
STIKOM Artha Buana 31
32. Probabilitas Bayes
Probabilitas Asih terkena cacar karena ada
bintik2 di wajahnya :
STIKOM Artha Buana 32
33. Probabilitas Bayes
Probabilitas Asih terkena alergi karena ada
bintik2 di wajahnya :
STIKOM Artha Buana 33
34. Probabilitas Bayes
Probabilitas Asih jerawatan karena ada
bintik2 di wajahnya :
STIKOM Artha Buana 34
35. Probabilitas Bayes
Jika setelah dilakukan pengujian terhadap
hipotesis muncul satu atau lebih evidence
(fakta) atau observasi baru maka :
STIKOM Artha Buana 35
36. Probabilitas Bayes
Misal : Adanya bintik-bintik di wajah merupakan
gejala seseorang terkena cacar. Observasi baru
menunjukkan bahwa selain bintik-bintik di wajah,
panas badan juga merupakan gejala orang kena
cacar. Jadi antara munculnya bintik-bintik di wajah
dan panas badan juga memiliki keterkaitan satu
sama lain.
bintik panas
bintik
STIKOM Artha Buana 36
37. Probabilitas Bayes
Asih ada bintik-bintik di wajahnya. Dokter menduga
bahwa Asih terkena cacar dengan probabilitas
terkena cacar bila ada bintik-bintik di wajah →
p(cacar | bintik) = 0.8
Ada observasi bahwa orang terkena cacar pasti
mengalami panas badan. Jika diketahui probabilitas
orang terkena cacar bila panas badan →
p(cacar | panas ) = 0.5
Keterkaitan antara adanya bintik-bintik di wajah dan
panas badan bila seseorang terkena cacar →
p(bintik | panas, cacar) = 0.4
Keterkaitan antara adanya bintik-bintik di wajah dan
panas badan →
p(bintik | panas) = 0.6
STIKOM Artha Buana 37
39. Faktor Kepastian (Certainty)
Certainty Factor (CF) menunjukkan ukuran kepastian
terhadap suatu fakta atau aturan.
− CF[h,e] = MB[h,e] – MD[h,e]
− CF[h,e] = faktor kepastian
− MB[h,e] = ukuran kepercayaan/tingkat keyakinan
terhadap hipotesis h, jika diberikan/dipengaruhi
− evidence e (antara 0 dan 1)
− MD[h,e] = ukuran ketidakpercayaan/tingkat
ketidakyakinan terhadap hipotesis h, jika
diberikan/dipenharuhi evidence e (antara 0 dan 1)
STIKOM Artha Buana 39
40. Faktor Kepastian (Certainty)
1. Beberapa evidence dikombinasikan untuk menentukan CF dari suatu hipotesis.
Jika e1 dan e2 adalah observasi, maka :
e1
h
e2
0 Jika MD[h,e1^e2]=1
MB[h, e1^ e2] =
MB[ h , e1] + MB[ h , e 2 ] * (1 − MB[ h , e1]) Lainnya
0 Jika MB[h,e1^e2]=1
MD[h, e1^ e2] =
MD[ h , e1] + MD[ h , e 2 ] * (1 − MD[ h , e1]) Lainnya
STIKOM Artha Buana 40
41. Contoh :
•Misal suatu obeservasi memberikan kepercayaan terhadap h dengan
MB[h,e1]=0,3 dan MD[h,e1]=0, maka :
CF[h,e1]=0,3-0 = 0,3
Jika ada observasi baru dengan MB[h,e2]=0,2 dan MD[h,e2]=0, maka :
MB[h,e1 ^ e2] = 0,3 + 0,2 * (1-0,3)=0,44
MD[h,e1 ^ e2] = 0
CF[h,e1 ^ e2] = 0,44 – 0 = 0,44
• Asih menderita bintik-bintik di wajahnya. Dokter memperkirakan Asih
terkena cacar dengan kepercayaan MB[cacar,bintik]=0,8 dan
MD[cacar,bintik]=0,01, maka :
CF[cacar,bintik]=0,8 – 0,01 = 0,79
Jika ada observasi baru bahwa Asih juga panas badan dengan kepercayaan
MB[cacar,panas]=0,7 dan MD[cacar,panas]=0,08, maka :
MB[cacar,bintik^panas] = 0,8 +0,7 *(1-0,8)=0,9
MD[cacar,bintik^panas] = 0,01 +0,08 * (1-0,01) = 0,0892
CF[cacar,bintik^panas] = 0,94 – 0,0892 = 0,8508
STIKOM Artha Buana 41