SlideShare a Scribd company logo
1 of 28
1
Artificial
Intelligence
Oleh
Melania SM
Jaringan Syaraf Tiruan
@ 2011
2
PENDAHULUAN
 Jaringan Syaraf Manusia
– Terdiri 1000 milyar neuron
– Koneksi neuron (sinapsis) ± 6.1018
koneksi oleh jutaan sel
– Mampu membentuk sendiri aturan-
atuan/pola berdasarkan pengalaman
yang diterima
– 2 tahun pertama umur manusia dapat
terbentuk 1 juta sinapsis/detik
3
Representasi Struktur biologis Jaringan
Syaraf
 Soma inti dari sel
neuron
 Dendrite  ada dlm
tubuh sel tempat
soma berada
penghubung neuron
satu dgn yg lain
 Axon penghubung
neuron satu dg yg
lain melalui koneksi
output neuron
4
Fault Tolerant  dalam 2 hal
1. Manusia dapat mengenali sinyal
input yang agak berbeda dari yang
pernah diterima sebelumnya
2. Otak manusia mampu bekerja
walaupun beberapa neuronnya
tidak mampu bekerja dengan baik
5
Jaringan Syaraf Tiruan
 Algoritma yang mempunyai kemampuan yang
sama dengan sel syaraf manusia yaitu dapat
beradaptasi dengan respon input yang diberikan
sebelumnya dan dengan respon ini dapat
melakukan pembelajaran
 Sistem pemroses informasi yang memiliki
karakteristik mirip dengan jaringan syaraf biologi
 Dibentuk sebagai generalisasi model matematika
darijaringan syaraf biologi
6
Asumsi pembentukan model :
 Pemrosesan informasi terjadi pada
banyak elemen sederhana (neuron)
 Sinyal dikirimkan diantara neuron2
melalui penghubung-penghubung.
 Penghubung antar neuron memiliki
bobot yang akan memperkuat atau
memperlemah sinyal
 Untuk menentukan output setiap
neuron menggunakan fungsi
aktivasi.
7
JST ditentukan oleh 3 hal :
1. Pola hubungan antar neuron
2. Metode menentukan bobot
penghubung (disebut metoda
training/learning/algoritma)
3. Fungsi aktivasi
8
Model Neuron dalam JST
Output
 F()
Fungsi aktivasi
Bobot sinapsis
y
b
W1
Wn
W2
U1
U2
Un
input
Bobot bias
.
.
.
.




n
j
j
j b
U
W
f
y
1
(
9
Sejarah JST
 1943, McCulloch dan Pitts.
kombinasi beberapa neuron
sederhana menjadi sebuah sistem
neural akan meningkatkan
kemampuan komputasinya
Bobot jaringan yg diusulkan 
fungsi logika sederhana
Fungsi aktivasi  fungsi threshold
 1958, Rosnblatt: mengembangkan
model jaringan yg disebut
perceptron. Metode pelatihan
diperkenalkan untuk
mengoptimalkan hasil iterasi
10
 1960, Widrow dan Hoff  mengembangkan
perceptron dengan memperkenalkan aturan
pelatiha jaringan. Mengubah bobot apabila
keluaran yang dihasilkan tidak sesuai dengan
target yang diinginkan
 1986, Rumelhart  mengembangkan
perceptron menjadi backpropagation, yang
memungkinkan jaringan diproses melalui
beberapa layer
 Beberapa nama pengembang JST
• 1972 Kohonen
• 1982 Hopfield
11
APLIKASI JST
 Pengenalan Pola (Pattern
Recognition)
 Signal Processing
 dll
12
Dasar-dasar matematika
1. Vektor
Perkalian vektor dengan skalar
Penjumlahan 2 buah vektor
Hasil kali titik 2 vektor
Norma vektor
Ketergantungan linier
2. Matrik
Jenis-jenis matrik
Operasi pada matrik
13
Model Neuron
• Neuron adalah unit pemroses informasi
yang menjadi dasar dalam
pengoperasian JST
• Neuron terdiri dari 3 elemen pembentuk:
1. Himpunan unit-unit yg dihubungkan dengan jalur koneksi.
Jumlah, struktur dan pola hubunan antar unit2 tsb akan
menentukan arsitektur jaringan
2. Unit penjumlah yang akan menjumlahkan input-input sinyal
yang sudah dikalikan dengan bobotnya.
3. Fungsi aktivasi yang akan menentukan apakah sinyal dari
input neuron akan diteruskan ke neuron lain atau tidak.
14
ARSITEKTUR JARINGAN
 Jaringan Layar Tunggal (Single Layer Network)
 Jaringan Layar Jamak (Multi Layer Network)
 Jaringan Reccurent
Ik(n)
Wj
21
Y(n)
Xj(n)
Sj(n)
Wjk
10
Wj
11
Wj
1b
z(n)
Layar
Masukan
Layar
Tersembunyi
Layer
Keluaran
Layer
Bias
Layer
Bias
Fungsi
Aktifasi
Pembobot
Jaringan
STRUKTUR JARINGAN SARAF TIRUAN
16
Fungsi Aktivasi
Digunakan untuk menentukan keluaran suatu neuron
Beberapa Fungsi Aktivasi :
a. Fungsi Threshold (batas ambang)
b. Fungsi sigmoid
c. Fungsi identitas
17
Bias dan Thresold
Nilainya selalu = 1
Berfungsi untuk mengubah threshold menjadi = 0 (bukan a)
Model2
1. Perceptron  klasifikasi & pengenalan pola (8)
2. Adaline regresi(2)
3. Multi Layer Perceptron (MLP)pendekatan
fungsi (7)
4. Radial Basis Function (RBF)  Interpolasi,
Regresi & klasifikasi
5. Hopfieldoptimasi &CAM ((6)
6. Adaptive resonance klaster&klasifikasi
7. Boltmann machine optimasi (1)
8. Suport vektor machine  klasifikasi & regresi
18
19
Pelatihan
Pelatihan ada 2 macam yaitu :
1. Supervisi  sejumlah pasangan data (input – output)
yang dipakai untuk melatih jaringan hingga
mendapatkan bobot yang diinginkan
2. Tanpa Supervisi  tak ada pasangan data untuk
latihan. Dalam pelatihannya perubahan jaringan
dilakukan berdasarkan parameter tertentu dan jaringan
dimodifikasi menurut parameter tersebut
20
ALGORITMA BACKPROPAGATION
LAPISAN
OUTPUT
LAPISAN
TERSEMBUNYI
LAPISAN
INPUT
Output aktual
Output
target
+
-
Tahap Umpan Maju
Tahap pemropagasi-
balikan error
Error
Input
21
Cara kerja jaringan propagasi balik (1)
1. mula-mula jaringan diinisialisasikan dengan bobot yang diset
dengan bilangan acak.
2. contoh-contoh pelatihan dimasukkan ke dalam jaringan. Alur
kerja jaringan propagasi balik dapat dilihat pada Gambar 2.7.
C
3. ontoh pelatihan terdiri dari pasangan vektor input dan vektor
output target.
4. Keluaran dari jaringan berupa sebuah vektor output aktual.
5. Selanjutnya vektor output aktual jaringan dibandingkan
dengan vektor output target untuk mengetahui apakah output
jaringan sudah sesuai dengan harapan (output aktual sudah
sama dengan output target) (Puspitaningrum, 2006).
6. Error yang timbul akibat perbedaan antara output aktual
dengan output target tersebut kemudian dihitung dan
digunakan untuk meng-update bobot-bobot yang relevan
dengan jalan mempropagasikan kembali error.
7. Setiap perubahan bobot yang terjadi diharapkan dapat
mengurangi besar error.
22
Cara kerja jaringan propagasi balik (2)
1. Epoch (siklus setiap pola pelatihan) seperti ini dilakukan
pada semua set pelatihan sampai untuk kerja jaringan
mencapai tingkat yang diinginkan atau sampai kondisi
berhenti terpenuhi.
2. Setelah proses pelatihan selesai, barulah diterapkan
algoritma aplikasi.
3. Biasanya sebelum digunakan untuk aplikasi yang
sebenarnya, pengujian untuk kerja jaringan dilakukan
dengan cara memasukkan set pengujian (set tes) ke
dalam jaringan.
4. Karena bersifat untuk menguji, set pengujian hanya
berupa input saja.
5. Dari respon jaringan dapat dinilai kemampuan
memorisasi dan generalisasi jaringan dalam menebak
output berdasarkan pada apa yang telah dipelajarinya
selama ini.
23
Fungsi Aktivasi
1. Fungsi Linier
2. Suatu fungsi linier menggunakan konsep superposisi,
memiliki nilai output yang sama dengan nilai inputnya.
Persamaan matematika fungsi linier dapat dituliskan sebagai
berikut
3.
4. Kemiringan (slope) fungsi linier y = f(x) dengan simbol α. Jika
Slope α =1, maka fungsi aktivasi linier dinamakan fungsi
identity. Fungsi keluaran sama dengan fungsi masukannya..
5. Fungsi Sigmoid biner
6. Sigmoid Biner sering dipakai karena nilai fungsinya yang
terletak antara 0 dan 1, dan didefinisikan sebagai
7.
dengan turunan :
8. 2.17
24
Taksonomi Jaringan Syaraf Tiruan
Hingga kini sangat lebih dari 20 model JST.
JST berdasarkan pembelajaran,aplikasi, dan jenis arsitektur :
Pengenalan pola:
 ART (Adaaptive Resonance Theory)
 Backpropagation
Peramalan
 Backpr
 Adaline
Optimasi
 BP
25
Neuron McCulloch-Pitts
Karakter Neuron McCulloch-Pitts :
1. Fungsi aktivasi biner
2. Semua garis yg memperkuat sinyal
(bobot positif) kearah suatu neuron
memiliki kekuatan(besar bobot) yang
sama. Hal yang sama untuk garis yg
memperlmah sinyal
3. Setiap neuron memiliki batas ambang
(threshold) yang sama. Jika total inputke
neuron tsb memiliki threshold, maka
neuron akan meneruskan sinyal
26
Model Hebb
Dasar algoritma Hebb:
Jika 2 neuron yang dihubungkan dengan sinapsis
secara serentak menjadi aktif (sama2 bernilai +
atau -), maka kekuatan sinapsisnya meningkat.
Persamaan bobot :
Wi(baru) = Wi(lama) +xiy
27
Algoritma pelatihan Hebb
1. Inisialisasi semua bobot wi = 0 (i = 1…n)
2. Untuk semua vektor input s dan unit target t, lakukan
a. Set aktivasi unit masukan xi =si
b. Set aktivasi unit keluaran y=t
c. Perbaiki bobot menurut
 Wi(baru) = wi (lama) + dw
 dw = xi y
d. Perbaiki bias menurut persamaan
b(baru) = b(lama) +y
Kendala jaringan Hebb:
 Tidak semua model dapat direpresentasikan dengan
fungsi aktivasi threshold
 Dalam Menentukan menentukan representasi data I/O
untuk fungsi aktivasi threshold
28
 Fungsi Logika ‘dan’ dengan 2 masukan x1 dan x2
akan memiliki keluaran y=1 bila dan hanya bila
kedua masukannya = 1
– Buatlah model neuron McCulloch-Pitts untuk menyatakan
fungsi logika ‘dan’

More Related Content

Similar to Model neuron untuk fungsi logika AND

Similar to Model neuron untuk fungsi logika AND (20)

Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)
 
Makalah Jaringan Syaraf Tiruan
Makalah Jaringan Syaraf TiruanMakalah Jaringan Syaraf Tiruan
Makalah Jaringan Syaraf Tiruan
 
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)
 
Metode Komputasi "Adaptive Network"
Metode Komputasi "Adaptive Network"Metode Komputasi "Adaptive Network"
Metode Komputasi "Adaptive Network"
 
Jaringan saraf-tiruan
Jaringan saraf-tiruanJaringan saraf-tiruan
Jaringan saraf-tiruan
 
Dw 9-intelijensi buatan
Dw 9-intelijensi buatanDw 9-intelijensi buatan
Dw 9-intelijensi buatan
 
11 jaringan-syaraf-tiruan
11 jaringan-syaraf-tiruan11 jaringan-syaraf-tiruan
11 jaringan-syaraf-tiruan
 
restrictedboltzmannmachines
restrictedboltzmannmachinesrestrictedboltzmannmachines
restrictedboltzmannmachines
 
Pertemuan 1
Pertemuan 1Pertemuan 1
Pertemuan 1
 
Jaringan perceptron & matlab
Jaringan perceptron & matlabJaringan perceptron & matlab
Jaringan perceptron & matlab
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
Praktikum Komputasi Statistik ANN.ppt
Praktikum Komputasi Statistik ANN.pptPraktikum Komputasi Statistik ANN.ppt
Praktikum Komputasi Statistik ANN.ppt
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
 
Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1
 
1768 soal ujian quis
1768 soal ujian quis1768 soal ujian quis
1768 soal ujian quis
 
05c neural network-mlp
05c neural network-mlp05c neural network-mlp
05c neural network-mlp
 
Ifa2
Ifa2Ifa2
Ifa2
 
Ifa2
Ifa2Ifa2
Ifa2
 
Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)
 
Jaringan-Syaraf-Tiruan.ppt
Jaringan-Syaraf-Tiruan.pptJaringan-Syaraf-Tiruan.ppt
Jaringan-Syaraf-Tiruan.ppt
 

Model neuron untuk fungsi logika AND

  • 2. 2 PENDAHULUAN  Jaringan Syaraf Manusia – Terdiri 1000 milyar neuron – Koneksi neuron (sinapsis) ± 6.1018 koneksi oleh jutaan sel – Mampu membentuk sendiri aturan- atuan/pola berdasarkan pengalaman yang diterima – 2 tahun pertama umur manusia dapat terbentuk 1 juta sinapsis/detik
  • 3. 3 Representasi Struktur biologis Jaringan Syaraf  Soma inti dari sel neuron  Dendrite  ada dlm tubuh sel tempat soma berada penghubung neuron satu dgn yg lain  Axon penghubung neuron satu dg yg lain melalui koneksi output neuron
  • 4. 4 Fault Tolerant  dalam 2 hal 1. Manusia dapat mengenali sinyal input yang agak berbeda dari yang pernah diterima sebelumnya 2. Otak manusia mampu bekerja walaupun beberapa neuronnya tidak mampu bekerja dengan baik
  • 5. 5 Jaringan Syaraf Tiruan  Algoritma yang mempunyai kemampuan yang sama dengan sel syaraf manusia yaitu dapat beradaptasi dengan respon input yang diberikan sebelumnya dan dengan respon ini dapat melakukan pembelajaran  Sistem pemroses informasi yang memiliki karakteristik mirip dengan jaringan syaraf biologi  Dibentuk sebagai generalisasi model matematika darijaringan syaraf biologi
  • 6. 6 Asumsi pembentukan model :  Pemrosesan informasi terjadi pada banyak elemen sederhana (neuron)  Sinyal dikirimkan diantara neuron2 melalui penghubung-penghubung.  Penghubung antar neuron memiliki bobot yang akan memperkuat atau memperlemah sinyal  Untuk menentukan output setiap neuron menggunakan fungsi aktivasi.
  • 7. 7 JST ditentukan oleh 3 hal : 1. Pola hubungan antar neuron 2. Metode menentukan bobot penghubung (disebut metoda training/learning/algoritma) 3. Fungsi aktivasi
  • 8. 8 Model Neuron dalam JST Output  F() Fungsi aktivasi Bobot sinapsis y b W1 Wn W2 U1 U2 Un input Bobot bias . . . .     n j j j b U W f y 1 (
  • 9. 9 Sejarah JST  1943, McCulloch dan Pitts. kombinasi beberapa neuron sederhana menjadi sebuah sistem neural akan meningkatkan kemampuan komputasinya Bobot jaringan yg diusulkan  fungsi logika sederhana Fungsi aktivasi  fungsi threshold  1958, Rosnblatt: mengembangkan model jaringan yg disebut perceptron. Metode pelatihan diperkenalkan untuk mengoptimalkan hasil iterasi
  • 10. 10  1960, Widrow dan Hoff  mengembangkan perceptron dengan memperkenalkan aturan pelatiha jaringan. Mengubah bobot apabila keluaran yang dihasilkan tidak sesuai dengan target yang diinginkan  1986, Rumelhart  mengembangkan perceptron menjadi backpropagation, yang memungkinkan jaringan diproses melalui beberapa layer  Beberapa nama pengembang JST • 1972 Kohonen • 1982 Hopfield
  • 11. 11 APLIKASI JST  Pengenalan Pola (Pattern Recognition)  Signal Processing  dll
  • 12. 12 Dasar-dasar matematika 1. Vektor Perkalian vektor dengan skalar Penjumlahan 2 buah vektor Hasil kali titik 2 vektor Norma vektor Ketergantungan linier 2. Matrik Jenis-jenis matrik Operasi pada matrik
  • 13. 13 Model Neuron • Neuron adalah unit pemroses informasi yang menjadi dasar dalam pengoperasian JST • Neuron terdiri dari 3 elemen pembentuk: 1. Himpunan unit-unit yg dihubungkan dengan jalur koneksi. Jumlah, struktur dan pola hubunan antar unit2 tsb akan menentukan arsitektur jaringan 2. Unit penjumlah yang akan menjumlahkan input-input sinyal yang sudah dikalikan dengan bobotnya. 3. Fungsi aktivasi yang akan menentukan apakah sinyal dari input neuron akan diteruskan ke neuron lain atau tidak.
  • 14. 14 ARSITEKTUR JARINGAN  Jaringan Layar Tunggal (Single Layer Network)  Jaringan Layar Jamak (Multi Layer Network)  Jaringan Reccurent Ik(n) Wj 21 Y(n) Xj(n) Sj(n) Wjk 10 Wj 11 Wj 1b z(n)
  • 16. 16 Fungsi Aktivasi Digunakan untuk menentukan keluaran suatu neuron Beberapa Fungsi Aktivasi : a. Fungsi Threshold (batas ambang) b. Fungsi sigmoid c. Fungsi identitas
  • 17. 17 Bias dan Thresold Nilainya selalu = 1 Berfungsi untuk mengubah threshold menjadi = 0 (bukan a)
  • 18. Model2 1. Perceptron  klasifikasi & pengenalan pola (8) 2. Adaline regresi(2) 3. Multi Layer Perceptron (MLP)pendekatan fungsi (7) 4. Radial Basis Function (RBF)  Interpolasi, Regresi & klasifikasi 5. Hopfieldoptimasi &CAM ((6) 6. Adaptive resonance klaster&klasifikasi 7. Boltmann machine optimasi (1) 8. Suport vektor machine  klasifikasi & regresi 18
  • 19. 19 Pelatihan Pelatihan ada 2 macam yaitu : 1. Supervisi  sejumlah pasangan data (input – output) yang dipakai untuk melatih jaringan hingga mendapatkan bobot yang diinginkan 2. Tanpa Supervisi  tak ada pasangan data untuk latihan. Dalam pelatihannya perubahan jaringan dilakukan berdasarkan parameter tertentu dan jaringan dimodifikasi menurut parameter tersebut
  • 21. 21 Cara kerja jaringan propagasi balik (1) 1. mula-mula jaringan diinisialisasikan dengan bobot yang diset dengan bilangan acak. 2. contoh-contoh pelatihan dimasukkan ke dalam jaringan. Alur kerja jaringan propagasi balik dapat dilihat pada Gambar 2.7. C 3. ontoh pelatihan terdiri dari pasangan vektor input dan vektor output target. 4. Keluaran dari jaringan berupa sebuah vektor output aktual. 5. Selanjutnya vektor output aktual jaringan dibandingkan dengan vektor output target untuk mengetahui apakah output jaringan sudah sesuai dengan harapan (output aktual sudah sama dengan output target) (Puspitaningrum, 2006). 6. Error yang timbul akibat perbedaan antara output aktual dengan output target tersebut kemudian dihitung dan digunakan untuk meng-update bobot-bobot yang relevan dengan jalan mempropagasikan kembali error. 7. Setiap perubahan bobot yang terjadi diharapkan dapat mengurangi besar error.
  • 22. 22 Cara kerja jaringan propagasi balik (2) 1. Epoch (siklus setiap pola pelatihan) seperti ini dilakukan pada semua set pelatihan sampai untuk kerja jaringan mencapai tingkat yang diinginkan atau sampai kondisi berhenti terpenuhi. 2. Setelah proses pelatihan selesai, barulah diterapkan algoritma aplikasi. 3. Biasanya sebelum digunakan untuk aplikasi yang sebenarnya, pengujian untuk kerja jaringan dilakukan dengan cara memasukkan set pengujian (set tes) ke dalam jaringan. 4. Karena bersifat untuk menguji, set pengujian hanya berupa input saja. 5. Dari respon jaringan dapat dinilai kemampuan memorisasi dan generalisasi jaringan dalam menebak output berdasarkan pada apa yang telah dipelajarinya selama ini.
  • 23. 23 Fungsi Aktivasi 1. Fungsi Linier 2. Suatu fungsi linier menggunakan konsep superposisi, memiliki nilai output yang sama dengan nilai inputnya. Persamaan matematika fungsi linier dapat dituliskan sebagai berikut 3. 4. Kemiringan (slope) fungsi linier y = f(x) dengan simbol α. Jika Slope α =1, maka fungsi aktivasi linier dinamakan fungsi identity. Fungsi keluaran sama dengan fungsi masukannya.. 5. Fungsi Sigmoid biner 6. Sigmoid Biner sering dipakai karena nilai fungsinya yang terletak antara 0 dan 1, dan didefinisikan sebagai 7. dengan turunan : 8. 2.17
  • 24. 24 Taksonomi Jaringan Syaraf Tiruan Hingga kini sangat lebih dari 20 model JST. JST berdasarkan pembelajaran,aplikasi, dan jenis arsitektur : Pengenalan pola:  ART (Adaaptive Resonance Theory)  Backpropagation Peramalan  Backpr  Adaline Optimasi  BP
  • 25. 25 Neuron McCulloch-Pitts Karakter Neuron McCulloch-Pitts : 1. Fungsi aktivasi biner 2. Semua garis yg memperkuat sinyal (bobot positif) kearah suatu neuron memiliki kekuatan(besar bobot) yang sama. Hal yang sama untuk garis yg memperlmah sinyal 3. Setiap neuron memiliki batas ambang (threshold) yang sama. Jika total inputke neuron tsb memiliki threshold, maka neuron akan meneruskan sinyal
  • 26. 26 Model Hebb Dasar algoritma Hebb: Jika 2 neuron yang dihubungkan dengan sinapsis secara serentak menjadi aktif (sama2 bernilai + atau -), maka kekuatan sinapsisnya meningkat. Persamaan bobot : Wi(baru) = Wi(lama) +xiy
  • 27. 27 Algoritma pelatihan Hebb 1. Inisialisasi semua bobot wi = 0 (i = 1…n) 2. Untuk semua vektor input s dan unit target t, lakukan a. Set aktivasi unit masukan xi =si b. Set aktivasi unit keluaran y=t c. Perbaiki bobot menurut  Wi(baru) = wi (lama) + dw  dw = xi y d. Perbaiki bias menurut persamaan b(baru) = b(lama) +y Kendala jaringan Hebb:  Tidak semua model dapat direpresentasikan dengan fungsi aktivasi threshold  Dalam Menentukan menentukan representasi data I/O untuk fungsi aktivasi threshold
  • 28. 28  Fungsi Logika ‘dan’ dengan 2 masukan x1 dan x2 akan memiliki keluaran y=1 bila dan hanya bila kedua masukannya = 1 – Buatlah model neuron McCulloch-Pitts untuk menyatakan fungsi logika ‘dan’