Perceptron merupakan model jaringan saraf tiruan pertama yang mampu melakukan klasifikasi pola secara linear. Algoritma pelatihan perceptron melibatkan modifikasi bobot berdasarkan perbedaan antara keluaran jaringan dan target, dilakukan berulang hingga konvergen. Metode ini lebih kuat dari model Hebb karena melibatkan learning rate dan dilakukan berulang untuk semua pola hingga pemahaman tercapai.
2. Model jaringan Perceptron pertama kali
dikemukakan oleh Rosenblatt (1962) dan Minsky -
Papert (1969).
Metode pelatihan Perceptron lebih kuat dari
metode Hebb terutama dalam iterasi yang dapat
membuat output dari bobot menjadi konvergen.
Arsitektur jaringan menggunakan single layer.
Metode perceptron merupakan pelatihan
supervisi.
Algoritma pelatihan perceptron digunakan untuk
biner dan bipolar.
Satu siklus pelatihan yang melibatkan seluruh
data input disebut satu epoch.
3. Neuron bias terjadi pada simpul yang BUKAN
INPUT dengan θ=0 atau tidak ada θ.
Neuron bias adalah simpul yang mengeluarkan
nilai 1.
Lambang neuron bias b atau w0.
X1
Xi
Xn
y
1
W1
Wi
Wn
W0
.
.
.
.
.
.
4. Arsitektur Perceptron sederhana adalah terdiri dari beberapa input dan
sebuah output.
Perceptron biasanya digunakan untuk mengklasifikasikan suatu tipe pola
tertentu yang sering dikenal dengan pemisahan secara linear.
X1
Xi
Xn
y
1
W1
Wi
Wn
W0
.
.
.
.
.
.
−<−
≤≤−
>
=
θ
θθ
θ
inyif
inyif
inyif
outyf
_1
_0
_1
)_(
5. Langkah 1 :
Inisialisasi bobot dan bias (untuk sederhananya, set bobos dan bias
dengan angka 0).
Set learning rate α (0 < α ≤ 1) (untuk sederhananya, set α dengan angka 1)
Langkah 2:
Selama ada elemen vektor masukan yang respon unit keluarannya tidak
sama dengan target, lakukan :
a : set aktivasi dari unit input : xi = si
b : hitung respon untuk unit output :
∑=
+=
n
i
ii wxbiny
1
_
−<−
≤≤−
>
=
θ
θθ
θ
inyif
inyif
inyif
inyf
_1
_0
_1
)_(
6. c. perbaiki bobot dan bias, jika terjadi kesalahan pada
pola ini :
jika y ≠ t, maka
∆w = α*t*xi
wi (baru) = wi (lama) + ∆w dengan ∆w = α * xi * t
b(baru) =b(lama) + ∆ b dengan ∆b = α * t
jika tidak, maka
c. wi (baru) = wi (lama)
d. b(baru) = b(lama)
Jika masih ada bobot yang berubah maka kondisi
dilanjutkan atau target sama dengan keluaran, jika
tidak maka proses berhenti.
7. Contoh Soal 2.1
Buat jaringan Perceptron untuk menyatakan fungsi logika AND dengan
menggunakan masukan biner dan keluaran biner. Pilih α = 1 dan θ = 0,2
Jawab :
x1 x2 t
0 0 -1
0 1 -1
1 0 -1
1 1 1
∑ f
w1
w2
x1
x2
n a
1
b
Pola hubungan masukan-target :
8. Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 1 0 0 0
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 2
0 0 1 -1
0 1 1 -1
1 0 1 -1
9. Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 3
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 4
0 0 1 -1
0 1 1 -1
1 0 1 -1
10. Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 5
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 6
0 0 1 -1
0 1 1 -1
1 0 1 -1
11. Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 7
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 8
0 0 1 -1
0 1 1 -1
1 0 1 -1
12. Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 9
0 0 1 -1
0 1 1 -1
1 0 1 -1
1 1 1 1
Masukan Target Output Perubahan
bobot
∆w = αxi t ∆b
= αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b
Epoch ke - 10
0 0 1 -1
0 1 1 -1
1 0 1 -1
13.
14. Iterasi akan di hentikan pada epoch ke 10 karena fnet sudah sama
dengan target nya
15. Latihan Soal 2.2
Buat jaringan Perceptron untuk mengenali pola pada tabel di bawah ini. Gunaka α = 1 dan θ =
0,1.
Jawab :
x1 x2 x3 t
0 1 1 -1
1 0 1 -1
1 1 0 -1
1 1 1 1
Masukan Target Output Perubahan bobot
∆w = αxi t ∆b =
αt
Bobot baru
wbaru = wlama +
∆w
bbaru = blama + ∆b
x1 x2 x3 1 t a ∆w1 ∆w2 ∆w3 ∆b w1 w2 w3 b
Inisialisasi 0 0 0 0
0 1 1 1 -1
1 0 1 1 -1
1 1 0 1 -1
1 1 1 1 1
16. Ada beberapa hal yang perlu diperhatikan dalam algoritma
tersebut :
Iterasi dilakukan terus hingga semua pola memiliki
keluaran jaringan yang sama dengan targetnya (jaringan
sudah memahami pola).
Perubahan bobot hanya dilakukan pada pola yang
mengandung kesalahan (keluaran target ≠ target).
Kecepatan iterasi ditentukan oleh laju pemahaman
(∝sama dengan 0≤∝≤1) yang dipakai. Semakin besar
harga ∝, semakin sedikit iterasi yang diperlukan. Akan
tetapi jika ∝ terlalu besar, maka akan merusak pola yang
sudah benar sehingga pemahaman menjadi lambat.
17. Algoritma pelatihan perceptron lebih baik dibandingkan model Hebb
karena :
Setiap kali pola dimasukkan, hasil keluaran jaringan dibandingkan
dengan target yang sesungguhnya. Jika terdapat perbedaan, maka
bobot akan dimodifikasi. Jadi tidak semua bobot akan dimodifikasi dalam
setiap iterasinya.
Modifikasi bobot tidak hanya ditentukan oleh perkalian antara target
dengan masukan, tapi juga melibatkan suatu laju pemahaman (learning
rate) yang besarnya bisa diatur.
Pelatihan dilakukan berulang-ulang untuk semua kemungkinan pola
yang ada hingga jaringan dapat mengerti polanya (ditandai dengan
samanya semua keluaran jaringan dengan target keluaran yang
diinginkan). Satu siklus pelatihan yang melibatkan semua pola disebut
epoch. Dalam jaringan Hebb, pelatihan hanya dilakukan dalam satu
epoch saja. Teorema konvergensi perceptron menyatakan bahwa
apabila ada bobot yang tepat, maka proses pelatihan akan konvergen ke
bobot yang tepat tersebut.