SlideShare a Scribd company logo
1 of 17
 Model jaringan Perceptron pertama kali
dikemukakan oleh Rosenblatt (1962) dan Minsky -
Papert (1969).
 Metode pelatihan Perceptron lebih kuat dari
metode Hebb terutama dalam iterasi yang dapat
membuat output dari bobot menjadi konvergen.
 Arsitektur jaringan menggunakan single layer.
 Metode perceptron merupakan pelatihan
supervisi.
 Algoritma pelatihan perceptron digunakan untuk
biner dan bipolar.
 Satu siklus pelatihan yang melibatkan seluruh
data input disebut satu epoch.
 Neuron bias terjadi pada simpul yang BUKAN
INPUT dengan θ=0 atau tidak ada θ.
 Neuron bias adalah simpul yang mengeluarkan
nilai 1.
 Lambang neuron bias  b atau w0.
X1
Xi
Xn
y
1
W1
Wi
Wn
W0
.
.
.
.
.
.
 Arsitektur Perceptron sederhana adalah terdiri dari beberapa input dan
sebuah output.
 Perceptron biasanya digunakan untuk mengklasifikasikan suatu tipe pola
tertentu yang sering dikenal dengan pemisahan secara linear.
X1
Xi
Xn
y
1
W1
Wi
Wn
W0
.
.
.
.
.
.





−<−
≤≤−
>
=
θ
θθ
θ
inyif
inyif
inyif
outyf
_1
_0
_1
)_(
 Langkah 1 :
Inisialisasi bobot dan bias (untuk sederhananya, set bobos dan bias
dengan angka 0).
Set learning rate α (0 < α ≤ 1) (untuk sederhananya, set α dengan angka 1)
 Langkah 2:
Selama ada elemen vektor masukan yang respon unit keluarannya tidak
sama dengan target, lakukan :
a : set aktivasi dari unit input : xi = si
b : hitung respon untuk unit output :
∑=
+=
n
i
ii wxbiny
1
_





−<−
≤≤−
>
=
θ
θθ
θ
inyif
inyif
inyif
inyf
_1
_0
_1
)_(
c. perbaiki bobot dan bias, jika terjadi kesalahan pada
pola ini :
jika y ≠ t, maka
 ∆w = α*t*xi
 wi (baru) = wi (lama) + ∆w dengan ∆w = α * xi * t
 b(baru) =b(lama) + ∆ b dengan ∆b = α * t
jika tidak, maka
c. wi (baru) = wi (lama)
d. b(baru) = b(lama)
 Jika masih ada bobot yang berubah maka kondisi
dilanjutkan atau target sama dengan keluaran, jika
tidak maka proses berhenti.
Contoh Soal 2.1
Buat jaringan Perceptron untuk menyatakan fungsi logika AND dengan
menggunakan masukan biner dan keluaran biner. Pilih α = 1 dan θ = 0,2
Jawab :
x1 x2 t
0 0 -1
0 1 -1
1 0 -1
1 1 1
∑ f
w1
w2
x1
x2
n a
1
b
Pola hubungan masukan-target :
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 1 0 0 0
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 2
0 0 1 -1
0 1 1 -1
1 0 1 -1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 3
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 4
0 0 1 -1
0 1 1 -1
1 0 1 -1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 5
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 6
0 0 1 -1
0 1 1 -1
1 0 1 -1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 7
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 8
0 0 1 -1
0 1 1 -1
1 0 1 -1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 9
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 10
0 0 1 -1
0 1 1 -1
1 0 1 -1
Iterasi akan di hentikan pada epoch ke 10 karena fnet sudah sama
dengan target nya
Latihan Soal 2.2
Buat jaringan Perceptron untuk mengenali pola pada tabel di bawah ini. Gunaka α = 1 dan θ =
0,1.
Jawab :
x1 x2 x3 t
0 1 1 -1
1 0 1 -1
1 1 0 -1
1 1 1 1
Masukan Target Output Perubahan bobot
∆w = αxi t ∆b =
αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 x3 1 t a ∆w1 ∆w2 ∆w3 ∆b w1 w2 w3 b
Inisialisasi 0 0 0 0
0 1 1 1 -1
1 0 1 1 -1
1 1 0 1 -1
1 1 1 1 1
Ada beberapa hal yang perlu diperhatikan dalam algoritma
tersebut :
Iterasi dilakukan terus hingga semua pola memiliki
keluaran jaringan yang sama dengan targetnya (jaringan
sudah memahami pola).
Perubahan bobot hanya dilakukan pada pola yang
mengandung kesalahan (keluaran target ≠ target).
Kecepatan iterasi ditentukan oleh laju pemahaman
(∝sama dengan 0≤∝≤1) yang dipakai. Semakin besar
harga ∝, semakin sedikit iterasi yang diperlukan. Akan
tetapi jika ∝ terlalu besar, maka akan merusak pola yang
sudah benar sehingga pemahaman menjadi lambat.
Algoritma pelatihan perceptron lebih baik dibandingkan model Hebb
karena :
Setiap kali pola dimasukkan, hasil keluaran jaringan dibandingkan
dengan target yang sesungguhnya. Jika terdapat perbedaan, maka
bobot akan dimodifikasi. Jadi tidak semua bobot akan dimodifikasi dalam
setiap iterasinya.
Modifikasi bobot tidak hanya ditentukan oleh perkalian antara target
dengan masukan, tapi juga melibatkan suatu laju pemahaman (learning
rate) yang besarnya bisa diatur.
Pelatihan dilakukan berulang-ulang untuk semua kemungkinan pola
yang ada hingga jaringan dapat mengerti polanya (ditandai dengan
samanya semua keluaran jaringan dengan target keluaran yang
diinginkan). Satu siklus pelatihan yang melibatkan semua pola disebut
epoch. Dalam jaringan Hebb, pelatihan hanya dilakukan dalam satu
epoch saja. Teorema konvergensi perceptron menyatakan bahwa
apabila ada bobot yang tepat, maka proses pelatihan akan konvergen ke
bobot yang tepat tersebut.

More Related Content

What's hot

03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptxssuserb33952
 
05c neural network-mlp
05c neural network-mlp05c neural network-mlp
05c neural network-mlprrahmad_14
 
Jaringanhebb
JaringanhebbJaringanhebb
JaringanhebbSan Toso
 
Integral fourier
Integral fourierIntegral fourier
Integral fourierNur Fadzri
 
Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)ahmad haidaroh
 
(Jst)hebb dan delta rule
(Jst)hebb dan delta rule(Jst)hebb dan delta rule
(Jst)hebb dan delta ruleJunior Iqfar
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruanpoposayangmomo
 
Metode simpleks kelompok 6_10A3
Metode simpleks kelompok 6_10A3Metode simpleks kelompok 6_10A3
Metode simpleks kelompok 6_10A3THALITAVERONA
 
Perhitungan matematis CNN untuk Analisis Sentimen
Perhitungan matematis CNN untuk Analisis SentimenPerhitungan matematis CNN untuk Analisis Sentimen
Perhitungan matematis CNN untuk Analisis SentimenMoch Ari Nasichuddin
 
Jaringan syaraf sederhana untuk klasifikasi pola
Jaringan syaraf sederhana untuk klasifikasi polaJaringan syaraf sederhana untuk klasifikasi pola
Jaringan syaraf sederhana untuk klasifikasi polaArief Fatchul Huda
 
Uji untuk 2 sampel dependen
Uji untuk 2 sampel dependenUji untuk 2 sampel dependen
Uji untuk 2 sampel dependenAngga Mahendra
 
Ruang Vektor ( Aljabar Linear Elementer )
Ruang Vektor ( Aljabar Linear Elementer )Ruang Vektor ( Aljabar Linear Elementer )
Ruang Vektor ( Aljabar Linear Elementer )Kelinci Coklat
 
bab 6 - UNSUR PERIODE KE EMPAT.pptx
bab 6 - UNSUR PERIODE KE EMPAT.pptxbab 6 - UNSUR PERIODE KE EMPAT.pptx
bab 6 - UNSUR PERIODE KE EMPAT.pptxHalomoan123
 
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)Farichah Riha
 
7 sorting-algoritma-bubble-sort
7 sorting-algoritma-bubble-sort7 sorting-algoritma-bubble-sort
7 sorting-algoritma-bubble-sortkusno hariyanto
 
Radial Basis Function - Example
Radial Basis Function - ExampleRadial Basis Function - Example
Radial Basis Function - Exampleahmad haidaroh
 

What's hot (20)

03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx
 
05c neural network-mlp
05c neural network-mlp05c neural network-mlp
05c neural network-mlp
 
Jaringanhebb
JaringanhebbJaringanhebb
Jaringanhebb
 
Integral fourier
Integral fourierIntegral fourier
Integral fourier
 
Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)
 
(Jst)hebb dan delta rule
(Jst)hebb dan delta rule(Jst)hebb dan delta rule
(Jst)hebb dan delta rule
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
gerbang logika dasar
 gerbang logika dasar gerbang logika dasar
gerbang logika dasar
 
Metode simpleks kelompok 6_10A3
Metode simpleks kelompok 6_10A3Metode simpleks kelompok 6_10A3
Metode simpleks kelompok 6_10A3
 
Perhitungan matematis CNN untuk Analisis Sentimen
Perhitungan matematis CNN untuk Analisis SentimenPerhitungan matematis CNN untuk Analisis Sentimen
Perhitungan matematis CNN untuk Analisis Sentimen
 
Jaringan syaraf sederhana untuk klasifikasi pola
Jaringan syaraf sederhana untuk klasifikasi polaJaringan syaraf sederhana untuk klasifikasi pola
Jaringan syaraf sederhana untuk klasifikasi pola
 
Uji untuk 2 sampel dependen
Uji untuk 2 sampel dependenUji untuk 2 sampel dependen
Uji untuk 2 sampel dependen
 
Ruang Vektor ( Aljabar Linear Elementer )
Ruang Vektor ( Aljabar Linear Elementer )Ruang Vektor ( Aljabar Linear Elementer )
Ruang Vektor ( Aljabar Linear Elementer )
 
bab 6 - UNSUR PERIODE KE EMPAT.pptx
bab 6 - UNSUR PERIODE KE EMPAT.pptxbab 6 - UNSUR PERIODE KE EMPAT.pptx
bab 6 - UNSUR PERIODE KE EMPAT.pptx
 
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)
 
Modul tba
Modul tbaModul tba
Modul tba
 
7 sorting-algoritma-bubble-sort
7 sorting-algoritma-bubble-sort7 sorting-algoritma-bubble-sort
7 sorting-algoritma-bubble-sort
 
Radial Basis Function - Example
Radial Basis Function - ExampleRadial Basis Function - Example
Radial Basis Function - Example
 
Uji hipotesis 2 rata rata
Uji hipotesis 2 rata rataUji hipotesis 2 rata rata
Uji hipotesis 2 rata rata
 
Hebb, perceptro dan adaline
Hebb, perceptro dan adalineHebb, perceptro dan adaline
Hebb, perceptro dan adaline
 

Similar to Perceptron (12)

JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptxJARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
 
19511 19 & 20 jst
19511 19 & 20 jst19511 19 & 20 jst
19511 19 & 20 jst
 
14237 19 & 20 jst
14237 19 & 20 jst14237 19 & 20 jst
14237 19 & 20 jst
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
 
Pertemuan 3. Arsitektur jaringan Hebb.pptx
Pertemuan 3. Arsitektur jaringan Hebb.pptxPertemuan 3. Arsitektur jaringan Hebb.pptx
Pertemuan 3. Arsitektur jaringan Hebb.pptx
 
Dkc 2 kelompok 2
Dkc 2 kelompok 2Dkc 2 kelompok 2
Dkc 2 kelompok 2
 
Back propagation
Back propagationBack propagation
Back propagation
 
Supervised Learning
Supervised LearningSupervised Learning
Supervised Learning
 
Jstchapt2
Jstchapt2Jstchapt2
Jstchapt2
 
Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)
 
pertemuan-11-jst.ppt
pertemuan-11-jst.pptpertemuan-11-jst.ppt
pertemuan-11-jst.ppt
 
Jaringan perceptron & matlab
Jaringan perceptron & matlabJaringan perceptron & matlab
Jaringan perceptron & matlab
 

Perceptron

  • 1.
  • 2.  Model jaringan Perceptron pertama kali dikemukakan oleh Rosenblatt (1962) dan Minsky - Papert (1969).  Metode pelatihan Perceptron lebih kuat dari metode Hebb terutama dalam iterasi yang dapat membuat output dari bobot menjadi konvergen.  Arsitektur jaringan menggunakan single layer.  Metode perceptron merupakan pelatihan supervisi.  Algoritma pelatihan perceptron digunakan untuk biner dan bipolar.  Satu siklus pelatihan yang melibatkan seluruh data input disebut satu epoch.
  • 3.  Neuron bias terjadi pada simpul yang BUKAN INPUT dengan θ=0 atau tidak ada θ.  Neuron bias adalah simpul yang mengeluarkan nilai 1.  Lambang neuron bias  b atau w0. X1 Xi Xn y 1 W1 Wi Wn W0 . . . . . .
  • 4.  Arsitektur Perceptron sederhana adalah terdiri dari beberapa input dan sebuah output.  Perceptron biasanya digunakan untuk mengklasifikasikan suatu tipe pola tertentu yang sering dikenal dengan pemisahan secara linear. X1 Xi Xn y 1 W1 Wi Wn W0 . . . . . .      −<− ≤≤− > = θ θθ θ inyif inyif inyif outyf _1 _0 _1 )_(
  • 5.  Langkah 1 : Inisialisasi bobot dan bias (untuk sederhananya, set bobos dan bias dengan angka 0). Set learning rate α (0 < α ≤ 1) (untuk sederhananya, set α dengan angka 1)  Langkah 2: Selama ada elemen vektor masukan yang respon unit keluarannya tidak sama dengan target, lakukan : a : set aktivasi dari unit input : xi = si b : hitung respon untuk unit output : ∑= += n i ii wxbiny 1 _      −<− ≤≤− > = θ θθ θ inyif inyif inyif inyf _1 _0 _1 )_(
  • 6. c. perbaiki bobot dan bias, jika terjadi kesalahan pada pola ini : jika y ≠ t, maka  ∆w = α*t*xi  wi (baru) = wi (lama) + ∆w dengan ∆w = α * xi * t  b(baru) =b(lama) + ∆ b dengan ∆b = α * t jika tidak, maka c. wi (baru) = wi (lama) d. b(baru) = b(lama)  Jika masih ada bobot yang berubah maka kondisi dilanjutkan atau target sama dengan keluaran, jika tidak maka proses berhenti.
  • 7. Contoh Soal 2.1 Buat jaringan Perceptron untuk menyatakan fungsi logika AND dengan menggunakan masukan biner dan keluaran biner. Pilih α = 1 dan θ = 0,2 Jawab : x1 x2 t 0 0 -1 0 1 -1 1 0 -1 1 1 1 ∑ f w1 w2 x1 x2 n a 1 b Pola hubungan masukan-target :
  • 8. Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 1 0 0 0 0 0 1 -1 0 1 1 -1 1 0 1 -1 1 1 1 1 Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 2 0 0 1 -1 0 1 1 -1 1 0 1 -1
  • 9. Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 3 0 0 1 -1 0 1 1 -1 1 0 1 -1 1 1 1 1 Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 4 0 0 1 -1 0 1 1 -1 1 0 1 -1
  • 10. Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 5 0 0 1 -1 0 1 1 -1 1 0 1 -1 1 1 1 1 Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 6 0 0 1 -1 0 1 1 -1 1 0 1 -1
  • 11. Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 7 0 0 1 -1 0 1 1 -1 1 0 1 -1 1 1 1 1 Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 8 0 0 1 -1 0 1 1 -1 1 0 1 -1
  • 12. Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 9 0 0 1 -1 0 1 1 -1 1 0 1 -1 1 1 1 1 Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b Epoch ke - 10 0 0 1 -1 0 1 1 -1 1 0 1 -1
  • 13.
  • 14. Iterasi akan di hentikan pada epoch ke 10 karena fnet sudah sama dengan target nya
  • 15. Latihan Soal 2.2 Buat jaringan Perceptron untuk mengenali pola pada tabel di bawah ini. Gunaka α = 1 dan θ = 0,1. Jawab : x1 x2 x3 t 0 1 1 -1 1 0 1 -1 1 1 0 -1 1 1 1 1 Masukan Target Output Perubahan bobot ∆w = αxi t ∆b = αt Bobot baru wbaru = wlama + ∆w bbaru = blama + ∆b x1 x2 x3 1 t a ∆w1 ∆w2 ∆w3 ∆b w1 w2 w3 b Inisialisasi 0 0 0 0 0 1 1 1 -1 1 0 1 1 -1 1 1 0 1 -1 1 1 1 1 1
  • 16. Ada beberapa hal yang perlu diperhatikan dalam algoritma tersebut : Iterasi dilakukan terus hingga semua pola memiliki keluaran jaringan yang sama dengan targetnya (jaringan sudah memahami pola). Perubahan bobot hanya dilakukan pada pola yang mengandung kesalahan (keluaran target ≠ target). Kecepatan iterasi ditentukan oleh laju pemahaman (∝sama dengan 0≤∝≤1) yang dipakai. Semakin besar harga ∝, semakin sedikit iterasi yang diperlukan. Akan tetapi jika ∝ terlalu besar, maka akan merusak pola yang sudah benar sehingga pemahaman menjadi lambat.
  • 17. Algoritma pelatihan perceptron lebih baik dibandingkan model Hebb karena : Setiap kali pola dimasukkan, hasil keluaran jaringan dibandingkan dengan target yang sesungguhnya. Jika terdapat perbedaan, maka bobot akan dimodifikasi. Jadi tidak semua bobot akan dimodifikasi dalam setiap iterasinya. Modifikasi bobot tidak hanya ditentukan oleh perkalian antara target dengan masukan, tapi juga melibatkan suatu laju pemahaman (learning rate) yang besarnya bisa diatur. Pelatihan dilakukan berulang-ulang untuk semua kemungkinan pola yang ada hingga jaringan dapat mengerti polanya (ditandai dengan samanya semua keluaran jaringan dengan target keluaran yang diinginkan). Satu siklus pelatihan yang melibatkan semua pola disebut epoch. Dalam jaringan Hebb, pelatihan hanya dilakukan dalam satu epoch saja. Teorema konvergensi perceptron menyatakan bahwa apabila ada bobot yang tepat, maka proses pelatihan akan konvergen ke bobot yang tepat tersebut.