SlideShare a Scribd company logo
HEBBI RULE
DAN
DELTA RULE
JARINGAN SARAF TIRUAN
ERWIEN TJIPTA WIJAYA,ST.,M.KOM
ο‚‘ Hebbi Rule atau yang biasa dikenal dengan Hebb Rule (1949)
adalah metode pembelajaran yang paling sederhana.
ο‚‘ Pembelajaran dilakukan dengan cara memperbaiki nilai
bobot.
ο‚‘ Pembelajaran Hebb Rule termasuk supervised
ο‚‘ Apabila data direpresentasikan secara Bipolar dengan
supervised, maka perbaikan bobotnya adalah :
HEBB RULE : DESKRIPSI
𝑀𝑖 π‘π‘Žπ‘Ÿπ‘’ = 𝑀𝑖 π‘™π‘Žπ‘šπ‘Ž + π‘₯𝑖 𝑦
ο‚‘ Inisialisasi semua bobot :
ο‚‘ Setiap pasangan input-output (s-t), lakukan langkah sebagai
berikut :
 Set input dengan nilai sama dengan vektor input :
 Set output dengan nilai sama dengan vektor output
 Perbaiki bobot:
ALGORITMA
𝑀𝑖𝑗 = 0; π‘‘π‘’π‘›π‘”π‘Žπ‘› 𝑖 = 1,2,3 … , 𝑛; π‘‘π‘Žπ‘› 𝑗 = 1,2,3, … , π‘š
π‘₯𝑖 = 𝑠𝑖; (𝑖 = 1,2,3, … , 𝑛)
𝑦𝑗 = 𝑑𝑗; (𝑗 = 1,2,3, … , π‘š)
𝑀𝑖𝑗 π‘π‘Žπ‘Ÿπ‘’ = 𝑀𝑖𝑗 π‘™π‘Žπ‘šπ‘Ž + 𝑀𝑖 𝑦𝑗 ;
𝑖 = 1,2,3, … , 𝑛 π‘‘π‘Žπ‘› (𝑗 = 1,2,3, … , π‘š)
ο‚‘ Membuat jaringan saraf untuk melakukan pembelajaran
terhadap fungsi OR dengan input dan target bipolar
supervised sebagai berikut :
ο‚‘ Bobot awal dan bobot bias diset = 0
CONTOH : PEMBELAJARAN LOGIKA OR
X1 X2 B TARGET
-1 -1 1 -1
-1 1 1 1
1 -1 1 1
1 1 1 1
ο‚‘ Arsitektur jaringan :
ο‚‘ Perubahan bobot :
 Data ke-1 :
π‘₯𝑀 + 𝑏 F(y_in)
π‘₯1
π‘₯2
𝑏
1
𝑀2
𝑀1
𝑦_𝑖𝑛 𝑦
𝑀1 = 0 + (βˆ’1 βˆ— βˆ’1) = 1
𝑀2 = 0 + (βˆ’1 βˆ— βˆ’1) = 1
𝑏 = 0 + βˆ’1 = βˆ’1
ο‚‘ Perubahan bobot:
 Data ke-2 :
 Data ke-3 :
 Data ke-4 :
𝑀1 = 1 + (βˆ’1 βˆ— 1) = 0
𝑀2 = 1 + (1 βˆ— 1) = 2
𝑏 = βˆ’1 + 1 = 0
𝑀1 = 0 + (1 βˆ— 1) = 1
𝑀2 = 2 + (βˆ’1 βˆ— 1) = 1
𝑏 = 0 + 1 = 1
𝑀1 = 1 + (1 βˆ— 1) = 2
𝑀2 = 1 + (1 βˆ— 1) = 2
𝑏 = 1 + 1 = 2
ο‚‘ Bentuk output :
ο‚‘ Jika diberikan inputan x = [0,2 0,9] maka, hasilnya adalah :
ο‚‘ Karena nilai y_in=2,4 maka hasil setelah dilakukan melalui
fungsi aktivasi f(y_in) = f(2,4)= 1
HASIL TRAINING
𝑦_𝑖𝑛 = 𝑏 + π‘₯𝑖 𝑀𝑖 + (π‘₯𝑗 𝑀𝑗)
𝑦_𝑖𝑛 = 2 + 0,2 βˆ— 2 + 0,9 βˆ— 2 = 2,4
ο‚‘ Delta rule akan mengubah bobot yang menghubungkan
jaringan input ke unit output (y_in) dengan nilai target (t).
ο‚‘ Delta rule digunakan untuk meminimalkan error selama
pelatihan pola.
ο‚‘ Delta rule untuk memperbaiki bobot ke-i
ο‚‘ Nilai w baru diperoleh dari nilai w lama ditambah dengan βˆ†π‘€
DELTA RULE : DESKRIPSI
βˆ†π‘€π‘– = 𝛼 𝑑 βˆ’ 𝑦𝑖𝑛 βˆ— π‘₯𝑖
dengan :
x = vektor input
y_in = input jaringan ke unit Y
𝑦_𝑖𝑛 = π‘₯𝑖 βˆ— 𝑀𝑖
𝑛
𝑖=1
t = target (output)
βˆ†π‘€π‘– = 𝛼 𝑑 βˆ’ 𝑦𝑖𝑛 βˆ— π‘₯𝑖
ο‚‘ Tabel logika pembelajaran dengan fungsi aktivasi undak biner
ο‚‘ Arsitektur jaringan
CONTOH: PEMBELAJARAN LOGIKA OR
X1 X2 TARGET
0 0 0
0 1 1
1 0 1
1 1 1
π‘₯𝑀 F(y_in)
π‘₯1
π‘₯2
𝑏
1
𝑀2
𝑀1
𝑦_𝑖𝑛 𝑦
ο‚‘ Diketahui :
 Threshold (πœƒ) = 0,5
 Learning rate (𝛼) = 0,2
 w1 = 0,1
 w2 = 0,3
 Nilai error (𝛿) = t – y οƒ  target_output – nilai_output
ο‚‘ Data ke-1 :
ο‚‘ Data ke-2 :
ITERASI KE-1
π‘₯11 = 0; π‘₯12 = 0; 𝑑1 = 0
𝑀1 = 0,1; 𝑀2 = 0,3
π‘Ž11 = π‘₯11 𝑀1 + π‘₯12 𝑀2 = 0 βˆ— 0,1 + 0 βˆ— 0,3 = 0
𝑦11 = 0, π‘˜π‘Žπ‘Ÿπ‘’π‘›π‘Ž π‘Ž11 = 0 ≀ 0,5
𝛿11 = 𝑑1 βˆ’ 𝑦11 = 0 βˆ’ 0 = 0
𝑀1(π‘π‘Žπ‘Ÿπ‘’) = 𝑀1(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯11. 𝛿11 = 0,1 + 0,2 βˆ— 0 βˆ— 0 = 0,1
𝑀2(π‘π‘Žπ‘Ÿπ‘’) = 𝑀2(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯12. 𝛿11 = 0,3 + 0,2 βˆ— 0 βˆ— 0 = 0,3
π‘₯21 = 0; π‘₯22 = 1; 𝑑2 = 1
𝑀1 = 0,1; 𝑀2 = 0,3
π‘Ž12 = π‘₯21 𝑀1 + π‘₯22 𝑀2 = 0 βˆ— 0,1 + 1 βˆ— 0,3 = 0,3
𝑦12 = 0, π‘˜π‘Žπ‘Ÿπ‘’π‘›π‘Ž π‘Ž12 = 0,3 ≀ 0,5
𝛿12 = 𝑑2 βˆ’ 𝑦12 = 1 βˆ’ 0 = 1
𝑀1(π‘π‘Žπ‘Ÿπ‘’) = 𝑀1(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯21. 𝛿12 = 0,1 + 0,2 βˆ— 0 βˆ— 1 = 0,1
𝑀2(π‘π‘Žπ‘Ÿπ‘’) = 𝑀2(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯22. 𝛿12 = 0,3 + 0,2 βˆ— 1 βˆ— 1 = 0,5
ο‚‘ Data ke-3 :
ο‚‘ Data ke-4 :
ITERASI KE-1
π‘₯31 = 1; π‘₯32 = 0; 𝑑3 = 1
𝑀1 = 0,1; 𝑀2 = 0,5
π‘Ž13 = π‘₯31 𝑀1 + π‘₯32 𝑀2 = 1 βˆ— 0,1 + 0 βˆ— 0,5 = 0,1
𝑦13 = 0, π‘˜π‘Žπ‘Ÿπ‘’π‘›π‘Ž π‘Ž13 = 0,1 ≀ 0,5
𝛿13 = 𝑑3 βˆ’ 𝑦13 = 1 βˆ’ 0 = 1
𝑀1(π‘π‘Žπ‘Ÿπ‘’) = 𝑀1(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯31. 𝛿13 = 0,1 + 0,2 βˆ— 1 βˆ— 1 = 0,3
𝑀2(π‘π‘Žπ‘Ÿπ‘’) = 𝑀2(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯32. 𝛿13 = 0,5 + 0,2 βˆ— 0 βˆ— 1 = 0,5
π‘₯41 = 1; π‘₯42 = 1; 𝑑4 = 1
𝑀1 = 0,3; 𝑀2 = 0,5
π‘Ž14 = π‘₯41 𝑀1 + π‘₯42 𝑀2 = 1 βˆ— 0,3 + 1 βˆ— 0,5 = 0,8
𝑦14 = 1, π‘˜π‘Žπ‘Ÿπ‘’π‘›π‘Ž π‘Ž14 = 0,8 > 0,5
𝛿14 = 𝑑4 βˆ’ 𝑦14 = 1 βˆ’ 1 = 0
𝑀1(π‘π‘Žπ‘Ÿπ‘’) = 𝑀1(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯41. 𝛿14 = 0,3 + 0,2 βˆ— 1 βˆ— 0 = 0,3
𝑀2(π‘π‘Žπ‘Ÿπ‘’) = 𝑀2(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯42. 𝛿14 = 0,5 + 0,2 βˆ— 1 βˆ— 0 = 0,5
ο‚‘ Demikian seterusnya hingga hasil akhirnya tercapai apabila
nilai error (𝛿) = 0, dan iterasi berhenti pada iterasi yang ke-4
epoh x1 x2 t w1(L) w2(L) a y 𝜹 w1(B) w2(B)
1 0 0 0 0,1 0,3 0 0 0,0 0,1 0,3
1 0 1 1 0,1 0,3 0,3 0 1,0 0,1 0,5
1 1 0 1 0,1 0,5 0,1 0 1,0 0,3 0,5
1 1 1 1 0,3 0,5 0,8 1 0,0 0,3 0,5
2 0 0 0 0,3 0,5 0 0 0,0 0,3 0,5
2 0 1 1 0,3 0,5 0,5 0 1,0 0,3 0,7
2 1 0 1 0,3 0,7 0,3 0 1,0 0,5 0,7
2 1 1 1 0,5 0,7 1,2 1 0,0 0,5 0,7
epoh x1 x2 t w1(L) w2(L) a y 𝜹 w1(B) w2(B)
3 0 0 0 0,5 0,7 0 0 0,0 0,5 0,7
3 0 1 1 0,5 0,7 0,7 1 0,0 0,5 0,7
3 1 0 1 0,5 0,7 0,5 0 1,0 0,7 0,7
3 1 1 1 0,7 0,7 1,4 1 0,0 0,7 0,7
4 0 0 0 0,7 0,7 0 0 0,0 0,7 0,7
4 0 1 1 0,7 0,7 0,7 1 0,0 0,7 0,7
4 1 0 1 0,7 0,7 0,7 1 0,0 0,7 0,7
4 1 1 1 0,7 0,7 1,4 1 0,0 0,7 0,7

More Related Content

What's hot

Uji Run ( Keacakan )
Uji Run ( Keacakan )Uji Run ( Keacakan )
Uji Run ( Keacakan )
Nur Sandy
Β 
5. masalah transportasi dan penugasan
5. masalah transportasi dan penugasan5. masalah transportasi dan penugasan
5. masalah transportasi dan penugasanNadia Rahmatul Ummah
Β 
Metode belajar hebbian supervised
Metode belajar hebbian supervisedMetode belajar hebbian supervised
Metode belajar hebbian supervised
Roy Nuary Singarimbun
Β 
Penyederhanaan Fungsi Boolean
Penyederhanaan Fungsi BooleanPenyederhanaan Fungsi Boolean
Penyederhanaan Fungsi BooleanFahrul Razi
Β 
pewarnaan graf
pewarnaan grafpewarnaan graf
pewarnaan graf
rukmono budi utomo
Β 
Penyelesaian sistem persamaan linear dengan metode iterasi gauss seidel
Penyelesaian sistem persamaan linear dengan metode iterasi gauss seidelPenyelesaian sistem persamaan linear dengan metode iterasi gauss seidel
Penyelesaian sistem persamaan linear dengan metode iterasi gauss seidelBAIDILAH Baidilah
Β 
Fuzzy fungsi keanggotaan
Fuzzy fungsi keanggotaanFuzzy fungsi keanggotaan
Fuzzy fungsi keanggotaanRoziq Bahtiar
Β 
Soal matstat ngagel+jawabannya
Soal matstat ngagel+jawabannyaSoal matstat ngagel+jawabannya
Soal matstat ngagel+jawabannyaKana Outlier
Β 
Kuliah pemilihan model_terbaik_m14_dan_15
Kuliah pemilihan model_terbaik_m14_dan_15Kuliah pemilihan model_terbaik_m14_dan_15
Kuliah pemilihan model_terbaik_m14_dan_15Roudlotul Jannah
Β 
Testing&implementasi 4
Testing&implementasi 4Testing&implementasi 4
Testing&implementasi 4
aiiniR
Β 
Contoh soal Teori antrian khusus Poisson
Contoh soal Teori antrian khusus PoissonContoh soal Teori antrian khusus Poisson
Contoh soal Teori antrian khusus PoissonLilies DLiestyowati
Β 
APG Pertemuan 6 : Inferensia Dua Faktor Rata-rata
APG Pertemuan 6 : Inferensia Dua Faktor Rata-rataAPG Pertemuan 6 : Inferensia Dua Faktor Rata-rata
APG Pertemuan 6 : Inferensia Dua Faktor Rata-rata
Rani Nooraeni
Β 
Modul metode regresi
Modul metode regresiModul metode regresi
Modul metode regresi
giyantilinda
Β 
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)
Farichah Riha
Β 
Turunan numerik
Turunan numerikTurunan numerik
Turunan numerikBobby Chandra
Β 
3. newton raphson method
3. newton raphson method3. newton raphson method
3. newton raphson method
okti agung
Β 
UAS Statistika
UAS StatistikaUAS Statistika
UAS Statistika
Abdul Jamil
Β 
Distribusi hipergeometrik
Distribusi hipergeometrikDistribusi hipergeometrik
Distribusi hipergeometrik
Eman Mendrofa
Β 
Interpolasi Newton
Interpolasi  NewtonInterpolasi  Newton
Interpolasi Newton
Ratih Vihafsari
Β 
Bab 2 Aljabar Relasional
Bab 2   Aljabar RelasionalBab 2   Aljabar Relasional
Bab 2 Aljabar RelasionalRatzman III
Β 

What's hot (20)

Uji Run ( Keacakan )
Uji Run ( Keacakan )Uji Run ( Keacakan )
Uji Run ( Keacakan )
Β 
5. masalah transportasi dan penugasan
5. masalah transportasi dan penugasan5. masalah transportasi dan penugasan
5. masalah transportasi dan penugasan
Β 
Metode belajar hebbian supervised
Metode belajar hebbian supervisedMetode belajar hebbian supervised
Metode belajar hebbian supervised
Β 
Penyederhanaan Fungsi Boolean
Penyederhanaan Fungsi BooleanPenyederhanaan Fungsi Boolean
Penyederhanaan Fungsi Boolean
Β 
pewarnaan graf
pewarnaan grafpewarnaan graf
pewarnaan graf
Β 
Penyelesaian sistem persamaan linear dengan metode iterasi gauss seidel
Penyelesaian sistem persamaan linear dengan metode iterasi gauss seidelPenyelesaian sistem persamaan linear dengan metode iterasi gauss seidel
Penyelesaian sistem persamaan linear dengan metode iterasi gauss seidel
Β 
Fuzzy fungsi keanggotaan
Fuzzy fungsi keanggotaanFuzzy fungsi keanggotaan
Fuzzy fungsi keanggotaan
Β 
Soal matstat ngagel+jawabannya
Soal matstat ngagel+jawabannyaSoal matstat ngagel+jawabannya
Soal matstat ngagel+jawabannya
Β 
Kuliah pemilihan model_terbaik_m14_dan_15
Kuliah pemilihan model_terbaik_m14_dan_15Kuliah pemilihan model_terbaik_m14_dan_15
Kuliah pemilihan model_terbaik_m14_dan_15
Β 
Testing&implementasi 4
Testing&implementasi 4Testing&implementasi 4
Testing&implementasi 4
Β 
Contoh soal Teori antrian khusus Poisson
Contoh soal Teori antrian khusus PoissonContoh soal Teori antrian khusus Poisson
Contoh soal Teori antrian khusus Poisson
Β 
APG Pertemuan 6 : Inferensia Dua Faktor Rata-rata
APG Pertemuan 6 : Inferensia Dua Faktor Rata-rataAPG Pertemuan 6 : Inferensia Dua Faktor Rata-rata
APG Pertemuan 6 : Inferensia Dua Faktor Rata-rata
Β 
Modul metode regresi
Modul metode regresiModul metode regresi
Modul metode regresi
Β 
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)
Β 
Turunan numerik
Turunan numerikTurunan numerik
Turunan numerik
Β 
3. newton raphson method
3. newton raphson method3. newton raphson method
3. newton raphson method
Β 
UAS Statistika
UAS StatistikaUAS Statistika
UAS Statistika
Β 
Distribusi hipergeometrik
Distribusi hipergeometrikDistribusi hipergeometrik
Distribusi hipergeometrik
Β 
Interpolasi Newton
Interpolasi  NewtonInterpolasi  Newton
Interpolasi Newton
Β 
Bab 2 Aljabar Relasional
Bab 2   Aljabar RelasionalBab 2   Aljabar Relasional
Bab 2 Aljabar Relasional
Β 

Similar to (Jst)hebb dan delta rule

03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx
ssuserb33952
Β 
Distribusi Seragam, Bernoulli, dan Binomial
Distribusi Seragam, Bernoulli, dan BinomialDistribusi Seragam, Bernoulli, dan Binomial
Distribusi Seragam, Bernoulli, dan Binomial
Silvia_Al
Β 
Bab 1 Bilangan Berpangkat dan Akar Bilangan.pptx
Bab 1 Bilangan Berpangkat dan Akar Bilangan.pptxBab 1 Bilangan Berpangkat dan Akar Bilangan.pptx
Bab 1 Bilangan Berpangkat dan Akar Bilangan.pptx
aulia486903
Β 
ppt_Bab_II_matematika_wajib_kelas_X persmaan dan pertidaksamaan linear.pptx
ppt_Bab_II_matematika_wajib_kelas_X persmaan dan pertidaksamaan linear.pptxppt_Bab_II_matematika_wajib_kelas_X persmaan dan pertidaksamaan linear.pptx
ppt_Bab_II_matematika_wajib_kelas_X persmaan dan pertidaksamaan linear.pptx
ThunderCapt
Β 
Newton gregory mundur
Newton gregory mundurNewton gregory mundur
Newton gregory mundur
Adi Moel
Β 
Beberapa Metode Penyelesaian Sistem Persamaan Linear
Beberapa Metode Penyelesaian Sistem Persamaan LinearBeberapa Metode Penyelesaian Sistem Persamaan Linear
Beberapa Metode Penyelesaian Sistem Persamaan Linear
TaridaTarida1
Β 
DERET PANGKAT & METODE DERET PANGKAT
DERET PANGKAT & METODE DERET PANGKATDERET PANGKAT & METODE DERET PANGKAT
DERET PANGKAT & METODE DERET PANGKATyuni dwinovika
Β 
Matematika teknik 02-pdt dan pde
Matematika teknik 02-pdt dan pdeMatematika teknik 02-pdt dan pde
Matematika teknik 02-pdt dan pde
el sucahyo
Β 
geometri analitik ruang
geometri analitik ruanggeometri analitik ruang
geometri analitik ruang
ria angriani
Β 
Konsep Nilai Mutlak
Konsep Nilai MutlakKonsep Nilai Mutlak
Konsep Nilai Mutlak
Agung Anggoro
Β 
Supervised Learning
Supervised LearningSupervised Learning
Supervised Learning
Sherly Uda
Β 
Jaringanhebb
JaringanhebbJaringanhebb
JaringanhebbSan Toso
Β 
2. F. Komposisi & Invers.pptx
2. F. Komposisi & Invers.pptx2. F. Komposisi & Invers.pptx
2. F. Komposisi & Invers.pptx
devieftika
Β 
Matematika teknik modul 1 b pd eksak dan linier
Matematika teknik modul 1 b pd eksak dan linierMatematika teknik modul 1 b pd eksak dan linier
Matematika teknik modul 1 b pd eksak dan linier
Prayudi MT
Β 
Bab 1 Bilangan Berpangkat dan Akar Bilangan.pptx
Bab 1 Bilangan Berpangkat dan Akar Bilangan.pptxBab 1 Bilangan Berpangkat dan Akar Bilangan.pptx
Bab 1 Bilangan Berpangkat dan Akar Bilangan.pptx
RimaFebriani10
Β 
PD Orde n
PD Orde nPD Orde n
STD BAB 5 PERSAMAAN DAN FUNGSI KUADRAT.pptx
STD BAB 5 PERSAMAAN DAN FUNGSI KUADRAT.pptxSTD BAB 5 PERSAMAAN DAN FUNGSI KUADRAT.pptx
STD BAB 5 PERSAMAAN DAN FUNGSI KUADRAT.pptx
rimanurmalasarispd
Β 
metode euler
metode eulermetode euler
metode euler
Ruth Dian
Β 

Similar to (Jst)hebb dan delta rule (20)

03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx
Β 
Distribusi Seragam, Bernoulli, dan Binomial
Distribusi Seragam, Bernoulli, dan BinomialDistribusi Seragam, Bernoulli, dan Binomial
Distribusi Seragam, Bernoulli, dan Binomial
Β 
Bab 1 Bilangan Berpangkat dan Akar Bilangan.pptx
Bab 1 Bilangan Berpangkat dan Akar Bilangan.pptxBab 1 Bilangan Berpangkat dan Akar Bilangan.pptx
Bab 1 Bilangan Berpangkat dan Akar Bilangan.pptx
Β 
ppt_Bab_II_matematika_wajib_kelas_X persmaan dan pertidaksamaan linear.pptx
ppt_Bab_II_matematika_wajib_kelas_X persmaan dan pertidaksamaan linear.pptxppt_Bab_II_matematika_wajib_kelas_X persmaan dan pertidaksamaan linear.pptx
ppt_Bab_II_matematika_wajib_kelas_X persmaan dan pertidaksamaan linear.pptx
Β 
Newton gregory mundur
Newton gregory mundurNewton gregory mundur
Newton gregory mundur
Β 
Beberapa Metode Penyelesaian Sistem Persamaan Linear
Beberapa Metode Penyelesaian Sistem Persamaan LinearBeberapa Metode Penyelesaian Sistem Persamaan Linear
Beberapa Metode Penyelesaian Sistem Persamaan Linear
Β 
DERET PANGKAT & METODE DERET PANGKAT
DERET PANGKAT & METODE DERET PANGKATDERET PANGKAT & METODE DERET PANGKAT
DERET PANGKAT & METODE DERET PANGKAT
Β 
Matematika teknik 02-pdt dan pde
Matematika teknik 02-pdt dan pdeMatematika teknik 02-pdt dan pde
Matematika teknik 02-pdt dan pde
Β 
geometri analitik ruang
geometri analitik ruanggeometri analitik ruang
geometri analitik ruang
Β 
Konsep Nilai Mutlak
Konsep Nilai MutlakKonsep Nilai Mutlak
Konsep Nilai Mutlak
Β 
Supervised Learning
Supervised LearningSupervised Learning
Supervised Learning
Β 
Jaringanhebb
JaringanhebbJaringanhebb
Jaringanhebb
Β 
2. F. Komposisi & Invers.pptx
2. F. Komposisi & Invers.pptx2. F. Komposisi & Invers.pptx
2. F. Komposisi & Invers.pptx
Β 
Matematika teknik modul 1 b pd eksak dan linier
Matematika teknik modul 1 b pd eksak dan linierMatematika teknik modul 1 b pd eksak dan linier
Matematika teknik modul 1 b pd eksak dan linier
Β 
19511 19 & 20 jst
19511 19 & 20 jst19511 19 & 20 jst
19511 19 & 20 jst
Β 
14237 19 & 20 jst
14237 19 & 20 jst14237 19 & 20 jst
14237 19 & 20 jst
Β 
Bab 1 Bilangan Berpangkat dan Akar Bilangan.pptx
Bab 1 Bilangan Berpangkat dan Akar Bilangan.pptxBab 1 Bilangan Berpangkat dan Akar Bilangan.pptx
Bab 1 Bilangan Berpangkat dan Akar Bilangan.pptx
Β 
PD Orde n
PD Orde nPD Orde n
PD Orde n
Β 
STD BAB 5 PERSAMAAN DAN FUNGSI KUADRAT.pptx
STD BAB 5 PERSAMAAN DAN FUNGSI KUADRAT.pptxSTD BAB 5 PERSAMAAN DAN FUNGSI KUADRAT.pptx
STD BAB 5 PERSAMAAN DAN FUNGSI KUADRAT.pptx
Β 
metode euler
metode eulermetode euler
metode euler
Β 

(Jst)hebb dan delta rule

  • 1. HEBBI RULE DAN DELTA RULE JARINGAN SARAF TIRUAN ERWIEN TJIPTA WIJAYA,ST.,M.KOM
  • 2. ο‚‘ Hebbi Rule atau yang biasa dikenal dengan Hebb Rule (1949) adalah metode pembelajaran yang paling sederhana. ο‚‘ Pembelajaran dilakukan dengan cara memperbaiki nilai bobot. ο‚‘ Pembelajaran Hebb Rule termasuk supervised ο‚‘ Apabila data direpresentasikan secara Bipolar dengan supervised, maka perbaikan bobotnya adalah : HEBB RULE : DESKRIPSI 𝑀𝑖 π‘π‘Žπ‘Ÿπ‘’ = 𝑀𝑖 π‘™π‘Žπ‘šπ‘Ž + π‘₯𝑖 𝑦
  • 3. ο‚‘ Inisialisasi semua bobot : ο‚‘ Setiap pasangan input-output (s-t), lakukan langkah sebagai berikut :  Set input dengan nilai sama dengan vektor input :  Set output dengan nilai sama dengan vektor output  Perbaiki bobot: ALGORITMA 𝑀𝑖𝑗 = 0; π‘‘π‘’π‘›π‘”π‘Žπ‘› 𝑖 = 1,2,3 … , 𝑛; π‘‘π‘Žπ‘› 𝑗 = 1,2,3, … , π‘š π‘₯𝑖 = 𝑠𝑖; (𝑖 = 1,2,3, … , 𝑛) 𝑦𝑗 = 𝑑𝑗; (𝑗 = 1,2,3, … , π‘š) 𝑀𝑖𝑗 π‘π‘Žπ‘Ÿπ‘’ = 𝑀𝑖𝑗 π‘™π‘Žπ‘šπ‘Ž + 𝑀𝑖 𝑦𝑗 ; 𝑖 = 1,2,3, … , 𝑛 π‘‘π‘Žπ‘› (𝑗 = 1,2,3, … , π‘š)
  • 4. ο‚‘ Membuat jaringan saraf untuk melakukan pembelajaran terhadap fungsi OR dengan input dan target bipolar supervised sebagai berikut : ο‚‘ Bobot awal dan bobot bias diset = 0 CONTOH : PEMBELAJARAN LOGIKA OR X1 X2 B TARGET -1 -1 1 -1 -1 1 1 1 1 -1 1 1 1 1 1 1
  • 5. ο‚‘ Arsitektur jaringan : ο‚‘ Perubahan bobot :  Data ke-1 : π‘₯𝑀 + 𝑏 F(y_in) π‘₯1 π‘₯2 𝑏 1 𝑀2 𝑀1 𝑦_𝑖𝑛 𝑦 𝑀1 = 0 + (βˆ’1 βˆ— βˆ’1) = 1 𝑀2 = 0 + (βˆ’1 βˆ— βˆ’1) = 1 𝑏 = 0 + βˆ’1 = βˆ’1
  • 6. ο‚‘ Perubahan bobot:  Data ke-2 :  Data ke-3 :  Data ke-4 : 𝑀1 = 1 + (βˆ’1 βˆ— 1) = 0 𝑀2 = 1 + (1 βˆ— 1) = 2 𝑏 = βˆ’1 + 1 = 0 𝑀1 = 0 + (1 βˆ— 1) = 1 𝑀2 = 2 + (βˆ’1 βˆ— 1) = 1 𝑏 = 0 + 1 = 1 𝑀1 = 1 + (1 βˆ— 1) = 2 𝑀2 = 1 + (1 βˆ— 1) = 2 𝑏 = 1 + 1 = 2
  • 7. ο‚‘ Bentuk output : ο‚‘ Jika diberikan inputan x = [0,2 0,9] maka, hasilnya adalah : ο‚‘ Karena nilai y_in=2,4 maka hasil setelah dilakukan melalui fungsi aktivasi f(y_in) = f(2,4)= 1 HASIL TRAINING 𝑦_𝑖𝑛 = 𝑏 + π‘₯𝑖 𝑀𝑖 + (π‘₯𝑗 𝑀𝑗) 𝑦_𝑖𝑛 = 2 + 0,2 βˆ— 2 + 0,9 βˆ— 2 = 2,4
  • 8. ο‚‘ Delta rule akan mengubah bobot yang menghubungkan jaringan input ke unit output (y_in) dengan nilai target (t). ο‚‘ Delta rule digunakan untuk meminimalkan error selama pelatihan pola. ο‚‘ Delta rule untuk memperbaiki bobot ke-i ο‚‘ Nilai w baru diperoleh dari nilai w lama ditambah dengan βˆ†π‘€ DELTA RULE : DESKRIPSI βˆ†π‘€π‘– = 𝛼 𝑑 βˆ’ 𝑦𝑖𝑛 βˆ— π‘₯𝑖 dengan : x = vektor input y_in = input jaringan ke unit Y 𝑦_𝑖𝑛 = π‘₯𝑖 βˆ— 𝑀𝑖 𝑛 𝑖=1 t = target (output) βˆ†π‘€π‘– = 𝛼 𝑑 βˆ’ 𝑦𝑖𝑛 βˆ— π‘₯𝑖
  • 9. ο‚‘ Tabel logika pembelajaran dengan fungsi aktivasi undak biner ο‚‘ Arsitektur jaringan CONTOH: PEMBELAJARAN LOGIKA OR X1 X2 TARGET 0 0 0 0 1 1 1 0 1 1 1 1 π‘₯𝑀 F(y_in) π‘₯1 π‘₯2 𝑏 1 𝑀2 𝑀1 𝑦_𝑖𝑛 𝑦
  • 10. ο‚‘ Diketahui :  Threshold (πœƒ) = 0,5  Learning rate (𝛼) = 0,2  w1 = 0,1  w2 = 0,3  Nilai error (𝛿) = t – y οƒ  target_output – nilai_output
  • 11. ο‚‘ Data ke-1 : ο‚‘ Data ke-2 : ITERASI KE-1 π‘₯11 = 0; π‘₯12 = 0; 𝑑1 = 0 𝑀1 = 0,1; 𝑀2 = 0,3 π‘Ž11 = π‘₯11 𝑀1 + π‘₯12 𝑀2 = 0 βˆ— 0,1 + 0 βˆ— 0,3 = 0 𝑦11 = 0, π‘˜π‘Žπ‘Ÿπ‘’π‘›π‘Ž π‘Ž11 = 0 ≀ 0,5 𝛿11 = 𝑑1 βˆ’ 𝑦11 = 0 βˆ’ 0 = 0 𝑀1(π‘π‘Žπ‘Ÿπ‘’) = 𝑀1(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯11. 𝛿11 = 0,1 + 0,2 βˆ— 0 βˆ— 0 = 0,1 𝑀2(π‘π‘Žπ‘Ÿπ‘’) = 𝑀2(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯12. 𝛿11 = 0,3 + 0,2 βˆ— 0 βˆ— 0 = 0,3 π‘₯21 = 0; π‘₯22 = 1; 𝑑2 = 1 𝑀1 = 0,1; 𝑀2 = 0,3 π‘Ž12 = π‘₯21 𝑀1 + π‘₯22 𝑀2 = 0 βˆ— 0,1 + 1 βˆ— 0,3 = 0,3 𝑦12 = 0, π‘˜π‘Žπ‘Ÿπ‘’π‘›π‘Ž π‘Ž12 = 0,3 ≀ 0,5 𝛿12 = 𝑑2 βˆ’ 𝑦12 = 1 βˆ’ 0 = 1 𝑀1(π‘π‘Žπ‘Ÿπ‘’) = 𝑀1(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯21. 𝛿12 = 0,1 + 0,2 βˆ— 0 βˆ— 1 = 0,1 𝑀2(π‘π‘Žπ‘Ÿπ‘’) = 𝑀2(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯22. 𝛿12 = 0,3 + 0,2 βˆ— 1 βˆ— 1 = 0,5
  • 12. ο‚‘ Data ke-3 : ο‚‘ Data ke-4 : ITERASI KE-1 π‘₯31 = 1; π‘₯32 = 0; 𝑑3 = 1 𝑀1 = 0,1; 𝑀2 = 0,5 π‘Ž13 = π‘₯31 𝑀1 + π‘₯32 𝑀2 = 1 βˆ— 0,1 + 0 βˆ— 0,5 = 0,1 𝑦13 = 0, π‘˜π‘Žπ‘Ÿπ‘’π‘›π‘Ž π‘Ž13 = 0,1 ≀ 0,5 𝛿13 = 𝑑3 βˆ’ 𝑦13 = 1 βˆ’ 0 = 1 𝑀1(π‘π‘Žπ‘Ÿπ‘’) = 𝑀1(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯31. 𝛿13 = 0,1 + 0,2 βˆ— 1 βˆ— 1 = 0,3 𝑀2(π‘π‘Žπ‘Ÿπ‘’) = 𝑀2(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯32. 𝛿13 = 0,5 + 0,2 βˆ— 0 βˆ— 1 = 0,5 π‘₯41 = 1; π‘₯42 = 1; 𝑑4 = 1 𝑀1 = 0,3; 𝑀2 = 0,5 π‘Ž14 = π‘₯41 𝑀1 + π‘₯42 𝑀2 = 1 βˆ— 0,3 + 1 βˆ— 0,5 = 0,8 𝑦14 = 1, π‘˜π‘Žπ‘Ÿπ‘’π‘›π‘Ž π‘Ž14 = 0,8 > 0,5 𝛿14 = 𝑑4 βˆ’ 𝑦14 = 1 βˆ’ 1 = 0 𝑀1(π‘π‘Žπ‘Ÿπ‘’) = 𝑀1(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯41. 𝛿14 = 0,3 + 0,2 βˆ— 1 βˆ— 0 = 0,3 𝑀2(π‘π‘Žπ‘Ÿπ‘’) = 𝑀2(π‘™π‘Žπ‘šπ‘Ž) + 𝛼. π‘₯42. 𝛿14 = 0,5 + 0,2 βˆ— 1 βˆ— 0 = 0,5
  • 13. ο‚‘ Demikian seterusnya hingga hasil akhirnya tercapai apabila nilai error (𝛿) = 0, dan iterasi berhenti pada iterasi yang ke-4 epoh x1 x2 t w1(L) w2(L) a y 𝜹 w1(B) w2(B) 1 0 0 0 0,1 0,3 0 0 0,0 0,1 0,3 1 0 1 1 0,1 0,3 0,3 0 1,0 0,1 0,5 1 1 0 1 0,1 0,5 0,1 0 1,0 0,3 0,5 1 1 1 1 0,3 0,5 0,8 1 0,0 0,3 0,5 2 0 0 0 0,3 0,5 0 0 0,0 0,3 0,5 2 0 1 1 0,3 0,5 0,5 0 1,0 0,3 0,7 2 1 0 1 0,3 0,7 0,3 0 1,0 0,5 0,7 2 1 1 1 0,5 0,7 1,2 1 0,0 0,5 0,7
  • 14. epoh x1 x2 t w1(L) w2(L) a y 𝜹 w1(B) w2(B) 3 0 0 0 0,5 0,7 0 0 0,0 0,5 0,7 3 0 1 1 0,5 0,7 0,7 1 0,0 0,5 0,7 3 1 0 1 0,5 0,7 0,5 0 1,0 0,7 0,7 3 1 1 1 0,7 0,7 1,4 1 0,0 0,7 0,7 4 0 0 0 0,7 0,7 0 0 0,0 0,7 0,7 4 0 1 1 0,7 0,7 0,7 1 0,0 0,7 0,7 4 1 0 1 0,7 0,7 0,7 1 0,0 0,7 0,7 4 1 1 1 0,7 0,7 1,4 1 0,0 0,7 0,7