Arief Fatchul Huda
UIN Sunan Gunung Djati Bandung
Agenda
Pengantar
Algoritma
Aplikasi
Pola fungsi logika
Pengenalan karakter sederhana
Konvergensi perceptron
Adaline
Arsitektur
Algoritma
Aplikasi
Delta rule
Madeline
Pengantar
Lebih baik dari Hebb
Menggunakan pengulangan (looping) dalam
memperbaiki bobot (w)
Beberapa jenis perceptron dijelaskan dalam tulisan
Rosenblatt (1962) dan Minsky dan Papert (1962, 1988)
Menggunakan fungsi aktifasi biner, dengan threshold
sebarang tapi tetap.
Pengantar[2]
Perubahan bobot dilakukan pada tiap unit input dari
beberapa unit dalam satu set input.
Jika output yang dihasilkan tidak sesuai dengan
output yang seharusnya maka bobot diubah, dan
dilakukan pembelajaran lagi.
Arsitektur
Algoritma
Step view
Input ke-1 Jika Out ≠ target Ubah bobot
Input ke-2 Jika Out ≠ target Ubah bobot
Input ke-3 Jika Out ≠ target Ubah bobot
Input ke-4 Jika Out ≠ target Ubah bobot
Jika masih ada Ubah bobot
Math view Jika tidak ada perubahan bobot
maka STOP,
selain itu (masih ada perubahan
bobot)
Perhitungan
Input ke-2
Input ke-3 dan ke-4
Contoh 2
Pola dengan 3 variabel input, dimana Hebb net tidak
bisa menyelesaikan
Pengenalan Karakter
Pengenalan karakter
dapat digolongkan :
Mengenal satu huruf
saja, misal
 A dan bukan A
 B dan bukan B, dst
Mengenal semua huruf
 Dapat mengenal A, B, C,
D, E, J, dan K sekaligus
Perhatikan
Langkah-langkah
Penyajian data,
Data disajikan dalam bentuk biner atau bipolar
Membuat arsitektur NN dengan algo perceptron
Input 49 variabel
Output 1 variabel
Mengenal 7 karakter
algoritma
Adeline
Adaptive Linear Neutron [Widrow & Hoff, 1960]
Menggunakan bipolar untuk data input dan output
Bobot diubah (diperbaiki) berdasarkan perbedaan
output dengan target disebut delta rule atau LMS
(least mean square) atau Widrow-Hoff rule
Fungsi aktifasi adalah fungsi identitas
Tujuan pembelajaran adalah meminimalisasi lms
error antara output dengan target.
Arsitektur
Algoritma
Laju pembelajaran
Hecht-neilsen (1990), laju pembelajaran adalah < dari ½
nilai eigen terbesar dari R
Namun, seringkali laju pembelajaran menggunakan nilai
yang kecil (misal 0.1) tanpa menghitung matrik R dan nilai
eigen
Pemilihan laju terlalu kecil akan memperlambat proses
pembelajaran.
Untuk neuron tunggal alpha didapatkan
dengan n adalah jumlah var. input
Aplikasi
Setelah selesai pembelajaran, jika nilai target adalah
bivalent (bipolar atau biner), maka fungsi aktifasi
menggunakan step function.
Algoritma
Madeline
Many Adaptive Linear Neuron (Many Adaline)
Kesimpulan
Algoritma Perceptron mengubah bobot dengan
iterasi, perubahan akan terus dilakukan sampai
output jaringan sama dengan target
Perceptron dapat digunakan untuk multiple output,
yaitu untuk klasifikasi lebih dari 2 kelas sekaligus
Adeline mengupdate bobot dengan delta rule
Madeline adalah Many Adeline
Alhamdulillah

Pengenalan pola sederhana dg perceptron