Dokumen tersebut membahas tentang jaringan syaraf tiruan, meliputi penjelasan tentang jaringan syaraf manusia, representasi struktur biologis jaringan syaraf, asumsi pembentukan model jaringan syaraf tiruan, sejarah perkembangan jaringan syaraf tiruan, aplikasi jaringan syaraf tiruan, dan beberapa model jaringan syaraf tiruan seperti perceptron, Adaline, dan multilayer perceptron.
2. 2
PENDAHULUAN
Jaringan Syaraf Manusia
– Terdiri 1000 milyar neuron
– Koneksi neuron (sinapsis) ± 6.1018
koneksi oleh jutaan sel
– Mampu membentuk sendiri aturan-
atuan/pola berdasarkan pengalaman
yang diterima
– 2 tahun pertama umur manusia dapat
terbentuk 1 juta sinapsis/detik
3. 3
Representasi Struktur biologis Jaringan
Syaraf
Soma inti dari sel
neuron
Dendrite ada dlm
tubuh sel tempat
soma berada
penghubung neuron
satu dgn yg lain
Axon penghubung
neuron satu dg yg
lain melalui koneksi
output neuron
4. 4
Fault Tolerant dalam 2 hal
1. Manusia dapat mengenali sinyal
input yang agak berbeda dari yang
pernah diterima sebelumnya
2. Otak manusia mampu bekerja
walaupun beberapa neuronnya
tidak mampu bekerja dengan baik
5. 5
Jaringan Syaraf Tiruan
Algoritma yang mempunyai kemampuan yang
sama dengan sel syaraf manusia yaitu dapat
beradaptasi dengan respon input yang diberikan
sebelumnya dan dengan respon ini dapat
melakukan pembelajaran
Sistem pemroses informasi yang memiliki
karakteristik mirip dengan jaringan syaraf biologi
Dibentuk sebagai generalisasi model matematika
darijaringan syaraf biologi
6. 6
Asumsi pembentukan model :
Pemrosesan informasi terjadi pada
banyak elemen sederhana (neuron)
Sinyal dikirimkan diantara neuron2
melalui penghubung-penghubung.
Penghubung antar neuron memiliki
bobot yang akan memperkuat atau
memperlemah sinyal
Untuk menentukan output setiap
neuron menggunakan fungsi
aktivasi.
7. 7
JST ditentukan oleh 3 hal :
1. Pola hubungan antar neuron
2. Metode menentukan bobot
penghubung (disebut metoda
training/learning/algoritma)
3. Fungsi aktivasi
8. 8
Model Neuron dalam JST
Output
F()
Fungsi aktivasi
Bobot sinapsis
y
b
W1
Wn
W2
U1
U2
Un
input
Bobot bias
.
.
.
.
n
j
j
j b
U
W
f
y
1
(
9. 9
Sejarah JST
1943, McCulloch dan Pitts.
kombinasi beberapa neuron
sederhana menjadi sebuah sistem
neural akan meningkatkan
kemampuan komputasinya
Bobot jaringan yg diusulkan
fungsi logika sederhana
Fungsi aktivasi fungsi threshold
1958, Rosnblatt: mengembangkan
model jaringan yg disebut
perceptron. Metode pelatihan
diperkenalkan untuk
mengoptimalkan hasil iterasi
10. 10
1960, Widrow dan Hoff mengembangkan
perceptron dengan memperkenalkan aturan
pelatiha jaringan. Mengubah bobot apabila
keluaran yang dihasilkan tidak sesuai dengan
target yang diinginkan
1986, Rumelhart mengembangkan
perceptron menjadi backpropagation, yang
memungkinkan jaringan diproses melalui
beberapa layer
Beberapa nama pengembang JST
• 1972 Kohonen
• 1982 Hopfield
12. 12
Dasar-dasar matematika
1. Vektor
Perkalian vektor dengan skalar
Penjumlahan 2 buah vektor
Hasil kali titik 2 vektor
Norma vektor
Ketergantungan linier
2. Matrik
Jenis-jenis matrik
Operasi pada matrik
13. 13
Model Neuron
• Neuron adalah unit pemroses informasi
yang menjadi dasar dalam
pengoperasian JST
• Neuron terdiri dari 3 elemen pembentuk:
1. Himpunan unit-unit yg dihubungkan dengan jalur koneksi.
Jumlah, struktur dan pola hubunan antar unit2 tsb akan
menentukan arsitektur jaringan
2. Unit penjumlah yang akan menjumlahkan input-input sinyal
yang sudah dikalikan dengan bobotnya.
3. Fungsi aktivasi yang akan menentukan apakah sinyal dari
input neuron akan diteruskan ke neuron lain atau tidak.
14. 14
ARSITEKTUR JARINGAN
Jaringan Layar Tunggal (Single Layer Network)
Jaringan Layar Jamak (Multi Layer Network)
Jaringan Reccurent
Ik(n)
Wj
21
Y(n)
Xj(n)
Sj(n)
Wjk
10
Wj
11
Wj
1b
z(n)
16. 16
Fungsi Aktivasi
Digunakan untuk menentukan keluaran suatu neuron
Beberapa Fungsi Aktivasi :
a. Fungsi Threshold (batas ambang)
b. Fungsi sigmoid
c. Fungsi identitas
19. 19
Pelatihan
Pelatihan ada 2 macam yaitu :
1. Supervisi sejumlah pasangan data (input – output)
yang dipakai untuk melatih jaringan hingga
mendapatkan bobot yang diinginkan
2. Tanpa Supervisi tak ada pasangan data untuk
latihan. Dalam pelatihannya perubahan jaringan
dilakukan berdasarkan parameter tertentu dan jaringan
dimodifikasi menurut parameter tersebut
21. 21
Cara kerja jaringan propagasi balik (1)
1. mula-mula jaringan diinisialisasikan dengan bobot yang diset
dengan bilangan acak.
2. contoh-contoh pelatihan dimasukkan ke dalam jaringan. Alur
kerja jaringan propagasi balik dapat dilihat pada Gambar 2.7.
C
3. ontoh pelatihan terdiri dari pasangan vektor input dan vektor
output target.
4. Keluaran dari jaringan berupa sebuah vektor output aktual.
5. Selanjutnya vektor output aktual jaringan dibandingkan
dengan vektor output target untuk mengetahui apakah output
jaringan sudah sesuai dengan harapan (output aktual sudah
sama dengan output target) (Puspitaningrum, 2006).
6. Error yang timbul akibat perbedaan antara output aktual
dengan output target tersebut kemudian dihitung dan
digunakan untuk meng-update bobot-bobot yang relevan
dengan jalan mempropagasikan kembali error.
7. Setiap perubahan bobot yang terjadi diharapkan dapat
mengurangi besar error.
22. 22
Cara kerja jaringan propagasi balik (2)
1. Epoch (siklus setiap pola pelatihan) seperti ini dilakukan
pada semua set pelatihan sampai untuk kerja jaringan
mencapai tingkat yang diinginkan atau sampai kondisi
berhenti terpenuhi.
2. Setelah proses pelatihan selesai, barulah diterapkan
algoritma aplikasi.
3. Biasanya sebelum digunakan untuk aplikasi yang
sebenarnya, pengujian untuk kerja jaringan dilakukan
dengan cara memasukkan set pengujian (set tes) ke
dalam jaringan.
4. Karena bersifat untuk menguji, set pengujian hanya
berupa input saja.
5. Dari respon jaringan dapat dinilai kemampuan
memorisasi dan generalisasi jaringan dalam menebak
output berdasarkan pada apa yang telah dipelajarinya
selama ini.
23. 23
Fungsi Aktivasi
1. Fungsi Linier
2. Suatu fungsi linier menggunakan konsep superposisi,
memiliki nilai output yang sama dengan nilai inputnya.
Persamaan matematika fungsi linier dapat dituliskan sebagai
berikut
3.
4. Kemiringan (slope) fungsi linier y = f(x) dengan simbol α. Jika
Slope α =1, maka fungsi aktivasi linier dinamakan fungsi
identity. Fungsi keluaran sama dengan fungsi masukannya..
5. Fungsi Sigmoid biner
6. Sigmoid Biner sering dipakai karena nilai fungsinya yang
terletak antara 0 dan 1, dan didefinisikan sebagai
7.
dengan turunan :
8. 2.17
24. 24
Taksonomi Jaringan Syaraf Tiruan
Hingga kini sangat lebih dari 20 model JST.
JST berdasarkan pembelajaran,aplikasi, dan jenis arsitektur :
Pengenalan pola:
ART (Adaaptive Resonance Theory)
Backpropagation
Peramalan
Backpr
Adaline
Optimasi
BP
25. 25
Neuron McCulloch-Pitts
Karakter Neuron McCulloch-Pitts :
1. Fungsi aktivasi biner
2. Semua garis yg memperkuat sinyal
(bobot positif) kearah suatu neuron
memiliki kekuatan(besar bobot) yang
sama. Hal yang sama untuk garis yg
memperlmah sinyal
3. Setiap neuron memiliki batas ambang
(threshold) yang sama. Jika total inputke
neuron tsb memiliki threshold, maka
neuron akan meneruskan sinyal
26. 26
Model Hebb
Dasar algoritma Hebb:
Jika 2 neuron yang dihubungkan dengan sinapsis
secara serentak menjadi aktif (sama2 bernilai +
atau -), maka kekuatan sinapsisnya meningkat.
Persamaan bobot :
Wi(baru) = Wi(lama) +xiy
27. 27
Algoritma pelatihan Hebb
1. Inisialisasi semua bobot wi = 0 (i = 1…n)
2. Untuk semua vektor input s dan unit target t, lakukan
a. Set aktivasi unit masukan xi =si
b. Set aktivasi unit keluaran y=t
c. Perbaiki bobot menurut
Wi(baru) = wi (lama) + dw
dw = xi y
d. Perbaiki bias menurut persamaan
b(baru) = b(lama) +y
Kendala jaringan Hebb:
Tidak semua model dapat direpresentasikan dengan
fungsi aktivasi threshold
Dalam Menentukan menentukan representasi data I/O
untuk fungsi aktivasi threshold
28. 28
Fungsi Logika ‘dan’ dengan 2 masukan x1 dan x2
akan memiliki keluaran y=1 bila dan hanya bila
kedua masukannya = 1
– Buatlah model neuron McCulloch-Pitts untuk menyatakan
fungsi logika ‘dan’