SlideShare a Scribd company logo
1 of 73
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Biologis
• Otak manusia berisi jutaan sel syaraf
(neuron) yang bertugas memproses
informasi
• Neuron saling berinteraksi satu sama
lain mendukung kemampuan kerja otak
manusia
Sel Syaraf (Neuron)
Sel Syaraf (Neuron)
• Komponen utama neuron dapat
dikelompokkan menjadi 3 bagian :
– Dendrit = bertugas menerima informasi =
jalur input bagi soma
– Badan sel (soma) = tempat pengolahan
informasi, di badan sel terdapat inti sel yang
bertugas mengolah informasi
– Akson = bertugas mengirimkan impuls-
impuls sinyal ke sel syaraf lain = jalur output
bagi soma
– Antar dendrit dipertemukan dengan sinapsis
Jaringan Syaraf Tiruan
• Meniru cara kerja jaringan syaraf biologis
• Generalisasi model matematis dari pemahaman
manusia:
– Pemrosesan informasi terjadi pada neuron
– Sinyal mengalir diantara sel saraf/neuron melalui
suatu sambungan penghubung
– Setiap sambungan penghubung memiliki bobot
yang bersesuaian.
– Bobot ini akan digunakan untuk menggandakan /
mengalikan sinyal yang dikirim melaluinya.
– Setiap sel syaraf akan menerapkan fungsi aktivasi
terhadap sinyal hasil penjumlahan berbobot yang
masuk kepadanya untuk menentukan sinyal
keluarannya.
Analogi JST dengan JSB
Model Struktur Neuron JST
Model Sel Syaraf (Neuron)
Model Sel Syaraf (Neuron)
 
k
k
p
j
j
kj
k
v
y
x
w
v


 
0
Secara matematis:
dan
SUMMATION FUNCTION
• Fungsi yang digunakan untuk mencari
rata-rata bobot dari semua elemen input.
• Bentuk sederhananya adalah dengan
mengalikan setiap nilai input (Xj) dengan
bobotnya (Wij) dan menjumlahkannya
SUMMATION FUNCTION
• Diibaratkan dengan sebuah neuron yang
memonitor sinyal yang datang dari
neuron-neuron lain.
• Neuron ini menghitung penjumlahan
berbobotnya dan kemudian menentukan
sinyal untuk dikirim ke neuron-neuron
lain.
Fungsi Aktivasi
 Dipakai untuk menentukan keluaran suatu
neuron
 Merupakan fungsi yang menggambarkan
hubungan antara tingkat aktivasi internal
(summation function) yang mungkin berbentuk
linier atau nonlinear.
 Beberapa fungsi aktivasi JST diantaranya hard
limit, purelin, dan sigmoid. Yang populer
digunakan adalah fungsi sigmoid yang memiliki
beberapa varian : sigmoid logaritma, sigmoid
biner, sigmoid bipolar, sigmoid tangen.
Fungsi Aktivasi
 Hard limit memberikan batasan tegas 0
atau 1, purelin memisahkan secara linier,
sigmoid berupa fungsi smooth bernilai
antara 0 sampai dengan 1 (bila biner)
atau antara -1 sampai 1 (bila bipolar)
Fungsi Aktivasi
Hard limit function
a = 0 jika n < 0
a = 1 jika n  0
n
0
+1
-1
a = hardlim ( n )
Karakteristik JST
• Dapat belajar dari pengalaman
• Algoritma untuk JST beroperasi secara langsung
dengan angka sehingga data yang tidak numerik
harus diubah menjadi data numerik.
• JST tidak diprogram untuk menghasilkan keluaran
tertentu. Semua keluaran atau kesimpulan yang ditarik
oleh jaringan didasarkan pada pengalamannya
selama mengikuti proses pembelajaran.
• Pada proses pembelajaran, ke dalam JST
dimasukkan pola-pola input (dan output) lalu jaringan
akan diajari untuk memberikan jawaban yang bisa
diterima.
Karakteristik JST
• Ditentukan oleh :
– Pola hubungan antar neuron (disebut
arsitektur jaringan)
– Metode penentuan bobot-bobot
sambungan (disebut dengan pelatihan
atau proses belajar jaringan)
– Fungsi aktivasi
Arsitektur JST
• Pada JST, neuron-neuron akan dikumpulkan
dalam lapisan-lapisan (layer) yang disebut
dengan lapisan neuron (neuron layers).
• Neuron-neuron pada satu lapisan akan
dihubungkan dengan lapisan-lapisan sebelum
dan sesudahnya.
• Informasi yang diberikan pada jaringan syaraf
akan dirambatkan lapisan ke lapisan, mulai
dari lapisan input sampai ke lapisan output
melalui lapisan tersembunyi (hidden layer).
Contoh
Arsitektur JST
 Faktor terpenting untuk menentukan kelakuan suatu
neuron adalah fungsi aktivasi dan pola bobotnya.
 Umumnya neuron yang terletak pada lapisan yang
sama akan memiliki keadaan yang sama → fungsi
aktivasi yang sama.
 Bila neuron-neuron pada suatu lapisan (misal lapisan
tersembunyi) akan dihubungkan dengan neuron-
neuron pada lapisan lain (misal lapisan output) maka
setiap neuron pada lapisan tersebut (lapisan
tersembunyi) juga harus dihubungkan dengan setiap
neuron pada lapisan lainnya (lapisan output)
Arsitektur JST
• Ada beberapa arsitektur jaringan syaraf,
antara lain :
– Jaringan dengan lapisan tunggal (single
layer net)
– Jaringan dengan banyak lapisan
(multilayer net)
– Jaringan dengan lapisan kompetitif
(competitive net)
Single Layer Net
 Hanya memiliki satu lapisan dengan
bobot-bobot terhubung
 Jaringan ini hanya menerima input
kemudian secara langsung akan
mengolahnya menjadi output tanpa
harus melalui lapisan tersembunyi.
Single Layer Net
• Seberapa besar hubungan antara 2
neuron ditentukan oleh bobot yang
bersesuaian.
• Semua unit input akan dihubungkan
dengan setiap unit output.
Single Layer Net
Multilayer Net
 Memiliki 1 atau lebih lapisan yang terletak
diantara lapisan input dan lapisan output
 Ada lapisan bobot yang terletak antara 2
lapisan yang bersebelahan
 Jaringan dengan banyak lapisan ini dapat
menyelesaikan permasalahan yang lebih
sulit daripada lapisan tunggal, tentu saja
dengan pembelajaran yang lebih rumit
Multilayer Net
Competitive Net
 Sekumpulan neuron bersaing untuk
mendapatkan hak menjadi aktif
 Umumnya hubungan antar neuron pada
lapisan kompetitif ini tidak diperlihatkan
pada diagram arsitektur
Competitive Net
Proses Pembelajaran Jaringan
 Cara belajar JST :
 Ke dalam JST diinputkan informasi yang
sebelumnya telah diketahui hasil
keluarannya.
 Penginputan informasi ini dilakukan lewat
node-node atau unit-unit input. Bobot-
bobot antarkoneksi dalam suatu arsitektur
diberi nilai awal dan kemudian JST
dijalankan.
Proses Pembelajaran Jaringan
 Bobot-bobot ini bagi jaringan digunakan
untuk belajar dan mengingat suatu
informasi. Pengaturan bobot dilakukan
secara terus-menerus dan dengan
menggunakan kriteria tertentu sampai
diperoleh keluaran yang diharapkan.
 Hal yang ingin dicapai dengan
melatih/mengajari JST adalah untuk
mencapai keseimbangan antara
kemampuan memorisasi dan generalisasi.
Proses Pembelajaran Jaringan
 Kemampuan memorisasi = kemampuan
JST untuk memanggil kembali secara
sempurna sebuah pola yang telah
dipelajari.
 Kemampuan generalisasi = adalah
kemampuan JST untuk menghasilkan
respon yang bisa diterima terhadap pola-
pola input yang serupa (namun tidak
identik) dengan pola-pola yang
sebelumnya telah dipelajari.
Metode Pembelajaran JST
 Pembelajaran terawasi (supervised
learning)
 Pembelajaran tak terawasi (unsupervised
learning)
 Gabungan pembelajaran terawasi dan
tak terawasi (hybrid)
Pembelajaran Terawasi
• Output yang diharapkan telah diketahui
sebelumnya
• Contoh : JST untuk mengenali pasangan
pola, misalkan pada operasi AND
Input Target
0 0 0
0 1 0
1 0 0
1 1 1
Pembelajaran Terawasi
• Satu pola input akan diberikan ke satu neuron
pada lapisan input
• Pola ini akan dirambatkan di sepanjang jaringan
syaraf hingga sampai ke neuron pada lapisan
output
• Lapisan output ini akan membangkitkan pola
output yang akan dicocokkan dengan pola output
targetnya
• Jika berbeda → error
• Jika error terlalu besar, perlu dilakukan
pembelajaran lebih banyak
Pembelajaran Tak Terawasi
• Tidak memerlukan target output
• Tidak dapat ditentukan hasil yang
diharapkan selama proses pembelajaran
• Nilai bobot disusun dalam suatu range
tertentu tergantung nilai input yang
diberikan
• Tujuannya untuk mengelompokkan unit
yang hampir sama dalam suatu area
tertentu
Hybrid
 Merupakan kombinasi dari kedua
pembelajaran tersebut. Sebagian dari
bobot-bobotnya ditentukan melalui
pembelajaran terawasi dan sebagian
lainnya melalui pembelajaran tak
terawasi.
Model Hebb
Model Hebb
Langkah-langkah :
1.Inisialisasi semua bobot = Wi = 0 (i=1,..,n)
2.Untuk semua vektor input s dan unit target
t, lakukan :
• Set aktivasi unit masukan Xi = Si (i=1,..,n)
• Set aktivasi unit keluaran y = t
• Perbaiki bobot menurut persamaan
• Wi (baru) = Wi(lama)+∆W
• ∆W = Xi.y
• Perbaiki bias menurut persamaan :
• b(baru) = b(lama)+y
Contoh Kasus
Membedakan pola :
# o # # o o
o # o # o o
# o # # # #
(X) (L)
Bagaimana JST mengenali pola berikut :
# # o
# # o
# # #
Contoh Kasus
# = 1, o = -1
X = 1, L = -1
Fungsi aktivasi :
y = 1, jika y_in >= 0
y = -1, jika y_in < 0
# o # # o o
o # o t=1 # o o t= -1
# o # # # #
Contoh Kasus
Input pertama :
1 -1 1
-1 1 -1
1 -1 1
∆W = x.t, maka nilai ∆W untuk tiap input:
1 -1 1
-1 1 -1
1 -1 1
Bias = b.t = 1.1 = 1
Contoh Kasus
Input kedua :
1 -1 -1
1 -1 -1
1 1 1
∆W = x.t, maka nilai ∆W untuk tiap input:
-1 1 1
-1 1 1
-1 -1 -1
Bias = b.t = 1.-1 = -1
Contoh Kasus
Bobot baru :
0 0 2
-2 2 0
0 -2 0
Bias = 0
Contoh Kasus
Aplikasikan bobot baru ke input 1 :
(1.0)+( -1.0)+(1.2)+(-1.-2)+(1.2)+
(-1.0)+(1.0)+(-1.-2)+(1.0) = 8
Jadi y = 1, sesuai target (t=1)
Aplikasikan bobot baru ke input 2 :
(1.0)+( -1.0)+(-1.2)+(1.-2)+(-1.2)+
(-1.0)+(1.0)+(1.-2)+(1.0) = -8
Jadi y = -1, sesuai target (t=-1)
Jadi JST sudah bisa mengenali pola
Contoh Kasus
Aplikasikan ke pola yang baru :
1 1 -1
1 1 -1
1 1 1
Beri bobot yang baru : (1.0)+( -1.0)+
(-1.2)+(1.-2)+(-1.2)+ (-1.0)+(1.0)+
(1.-2)+(1.0) = -8
Jadi y = -1, dikenali sebagai L
Perceptron
Bentuk paling sederhana dari JST.
Digunakan untuk pengklasifikasian pola
khusus yang biasa disebut linearable
separable.
Terbatas hanya untuk mengklasifikasikan
dua kelas saja.
Perceptron
Inputs
Thresho
ld Ө
(bias)
Outp
ut y
xp
Perceptron
Threshold
Ө
(bias)
Output
y
xp
Inputs
x1
x2
- 1
w1
w2
wp
vi φ(vi)
Hard
limiter
Perceptron
x2
x1
Kelas K2
Kelas K1
Decision boundary
w1x1 + w2x2 - Ө = 0
Perceptron
T
p
x
x
x
x ]
...
[ 2
1

Vektor input:
Vektor bobot:
Vektor output:
T
p
w
w
w
w ]
...
[ 2
1

x
w
v T
.

Perceptron
 Aturan Pembelajaran (Learning Rule)
Error e (sinyal kesalahan) dinyatakan sbb:
e = t – y
dimana :
Jika e = 1 , maka wbaru = wlama + x ( 1 )
Jika e = -1 , maka wbaru = wlama – x ( 2 )
Jika e = 0 , maka wbaru = wlama ( 3 )
wbaru = wlama + e.x
bbaru = blama + e
Keterangan Variabel-Variabel
e = error
t = target
x = input
y = output
w= bobot
Contoh Kasus
Membedakan :
Contoh Kasus
Contoh Kasus
S y
x1
w1
v
x3
w3
No bias neuron
x2
w2
• Ada 3 input yaitu x1,x2 dan x3
• Ada 3 bobot yaitu w1, w2 dan w3
• Tentukan bobot secara random, misal :
w = [0.5 0.5 0.5]
Contoh Kasus
1. Hitung jumlah input berbobot (v)
(1*0.5)+(1*0.5)+(0*0.5) = 1
Contoh Kasus
2. Fungsi Aktivasi (menggunakan hardlimit)
y = 0 jika v < 0
y = 1 jika v  0
y = hardlimit(v)
y = hardlimit(1)
Jadi y = 1, sesuai target t = 1 untuk input
pertama
Contoh Kasus
3.Cek bobot apakah cocok dengan input
kedua [0 1 1] dengan t=0, bobot [0.5 0.5
0.5]
v = (0.5*0)+(0.5*1)+(0.5*1) = 1
y = hardlimit(1)
y = 1, tidak sesuai dengan target, t = 0,
maka harus dilakukan perubahan bobot
Contoh Kasus
Contoh Kasus
5. Hitung y dengan bobot yang baru
v = (0.5*0)+(-0.5*1)+(-0.5*1) = -1
y = hardlimit(-1) = 0, sesuai dengan t=0
6. Cek bobot yang baru dengan input
pertama
v = (0.5*1)+(-0.5*1)+(-0.5*0) = 0
y = hardlimit(0) = 1, sesuai dengan t=1
Perceptron
7. Jika semua input sudah diklasifikasi
dengan benar, tidak perlu ada perubahan
pada bobot sehingga digunakan aturan
sbb:
Jika t = y, maka wbaru = wlama
Contoh Kasus 2










































 0
,
1
0
0
,
2
1
1
,
2
1
3
3
2
2
1
1 t
x
t
x
t
x
Test Problem
S y
x1
w1
v
x2
w2
No bias neuron
Contoh Kasus 2
x1
x2
1
2
3
Contoh Kasus 2
Kita pilih bobot secara random, misalnya:
wT = [ 1 -0.8 ]
Masukkan input x1 ke dalam jaringan dan
output:
y = hardlim (wT . x1 )
Input x1 tidak benar karena t1 = 1
  0
)
6
.
0
(
hardlim
2
1
8
.
0
1
hardlim 


















y
Contoh Kasus 2
p1
p2
n  1
n < 1
Perlu diputar berlawanan
arah dengan jarum jam
1
2
3
1WT
Cara mencari decision boundary:
Jika,
n = wp + b = 0
n = w1 .x1 + w2 . x2 = 0
Maka,
x1 – 0.8 x2 = 0
5x1 – 4x2 = 0
Jika x2 = 1  x1 = 0.8
Jika x1 =1  x2 = 1.25
Contoh Kasus 2
Jika t = 1, sedangkan y = 0, maka:
wbaru = wlama + x
Tes bobot baru ke jaringan:
Hasil output y sesuai dengan target output = 1
























2
.
1
2
2
1
8
.
0
1
1
x
w
w lama
baru
  1
)
4
.
4
(
hardlim
2
1
2
.
1
2
hardlim 
















y
Contoh Kasus 2
p1
p2
n  1
n < 1
1
WT
1
2
3
Cara mencari decision boundary:
Jika,
n = wp + b = 0
w1 .x1 + w2 . x2 = 0
Maka,
2x1 + 1.2 x2 = 0
Jika,
x2 = 1  x1 = - 1.2/2
x1 = - 0.6
Contoh Kasus 2
Tes input kedua:
y = hardlim (wT . x2 )
Input x2 tidak benar karena t2 =0
  1
)
4
.
0
(
hardlim
2
1
2
.
1
2
hardlim 
















y
Contoh Kasus 2
Jika t = 0, sedangkan y = 1, maka:
wbaru = wlama - x
Tes bobot baru ke jaringan:
Hasil output y sesuai dengan target output = 0
























8
.
0
3
2
1
2
.
1
2
2
x
w
w lama
baru
  0
)
6
.
4
(
hardlim
2
1
8
.
0
3
hardlim 


















y
Contoh Kasus 2
Cara mencari decision boundary:
Jika,
n = wp + b = 0
w1 .x1 + w2 . x2 = 0
Maka,
3x1 – 0.8 x2 = 0
Jika,
x2 = 2  x1 = 1.6/3
x1 = 8/15
p1
p2
n  1
n < 1
Perlu diputar berlawanan
arah dengan jarum jam
1WT
1
2
3
Contoh Kasus 2
Tes input ketiga:
y = hardlim (wT . x3 )
Input x3 tidak benar karena t3 =0
  1
)
8
.
0
(
hardlim
1
0
8
.
0
3
hardlim 


















y
Contoh Kasus 2
Jika t = 0, sedangkan y = 1, maka:
wbaru = wlama - x
Tes bobot baru ke jaringan:
Hasil output y sesuai dengan target output = 0

























2
.
0
3
1
0
8
.
0
3
3
x
w
w lama
baru
  0
)
2
.
0
(
hardlim
1
0
2
.
0
3
hardlim 


















y
Contoh Kasus 2
Cara mencari decision boundary:
Jika,
n = wp + b = 0
w1 .x1 + w2 . x2 = 0
Maka,
3x1 + 0.2 x2 = 0
Jika,
x2 = 1  x1 = -0.2/3
x1 = -1/15
p1
p2
n  1
n < 1 1
WT
1
2
3
SOAL
1. Jelaskan apa itu Jaringan Saraf Tiruan.
2. Jelaskan apa itu perceptron.
3. Jelaskan dengan menggunakan bahasa
anda untuk menyelesaikan soal dari
contoh soal membedakan jeruk dan apel
(page 52).
4. Jelaskan dengan menggunakan bahasa
anda untuk menyelesaikan soal dari
contoh kasus 2(page 61)

More Related Content

What's hot

Chương 1 kđ
Chương 1 kđChương 1 kđ
Chương 1 kđHa Do Viet
 
ANALISA STRUKTUR RANGKA BATANG.ppt
ANALISA STRUKTUR RANGKA BATANG.pptANALISA STRUKTUR RANGKA BATANG.ppt
ANALISA STRUKTUR RANGKA BATANG.pptKrishhh2
 
Huong dan tinh toan thanh phan dong cua tt gio
Huong dan tinh toan thanh phan dong cua tt gioHuong dan tinh toan thanh phan dong cua tt gio
Huong dan tinh toan thanh phan dong cua tt giovinhx1b
 
Sbvl chuong 8 chuyen vi cua dam chiu uon
Sbvl chuong 8 chuyen vi cua dam chiu uonSbvl chuong 8 chuyen vi cua dam chiu uon
Sbvl chuong 8 chuyen vi cua dam chiu uonPhi Phi
 
Capitulo 004 logica ladder - logica combinacional
Capitulo 004   logica ladder - logica combinacionalCapitulo 004   logica ladder - logica combinacional
Capitulo 004 logica ladder - logica combinacionalYasmim Morais
 
Jaringanhebb
JaringanhebbJaringanhebb
JaringanhebbSan Toso
 

What's hot (8)

Chương 1 kđ
Chương 1 kđChương 1 kđ
Chương 1 kđ
 
ANALISA STRUKTUR RANGKA BATANG.ppt
ANALISA STRUKTUR RANGKA BATANG.pptANALISA STRUKTUR RANGKA BATANG.ppt
ANALISA STRUKTUR RANGKA BATANG.ppt
 
Huong dan tinh toan thanh phan dong cua tt gio
Huong dan tinh toan thanh phan dong cua tt gioHuong dan tinh toan thanh phan dong cua tt gio
Huong dan tinh toan thanh phan dong cua tt gio
 
Soal sekuensial
Soal sekuensialSoal sekuensial
Soal sekuensial
 
Sbvl chuong 8 chuyen vi cua dam chiu uon
Sbvl chuong 8 chuyen vi cua dam chiu uonSbvl chuong 8 chuyen vi cua dam chiu uon
Sbvl chuong 8 chuyen vi cua dam chiu uon
 
Capitulo 004 logica ladder - logica combinacional
Capitulo 004   logica ladder - logica combinacionalCapitulo 004   logica ladder - logica combinacional
Capitulo 004 logica ladder - logica combinacional
 
Aaaa
AaaaAaaa
Aaaa
 
Jaringanhebb
JaringanhebbJaringanhebb
Jaringanhebb
 

Similar to JST-Pembelajaran

Similar to JST-Pembelajaran (20)

Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)
 
05c neural network-mlp
05c neural network-mlp05c neural network-mlp
05c neural network-mlp
 
Dw 9-intelijensi buatan
Dw 9-intelijensi buatanDw 9-intelijensi buatan
Dw 9-intelijensi buatan
 
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)
 
Jaringan Syaraf Tiruan
Jaringan Syaraf TiruanJaringan Syaraf Tiruan
Jaringan Syaraf Tiruan
 
materi mg 2 - Jaringan Saraf Tiruan.pdf
materi mg 2 -  Jaringan Saraf Tiruan.pdfmateri mg 2 -  Jaringan Saraf Tiruan.pdf
materi mg 2 - Jaringan Saraf Tiruan.pdf
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
JST.ppt
JST.pptJST.ppt
JST.ppt
 
Jaringan-Syaraf-Tiruan.ppt
Jaringan-Syaraf-Tiruan.pptJaringan-Syaraf-Tiruan.ppt
Jaringan-Syaraf-Tiruan.ppt
 
2a-JST-McCulloch-Pitts-Neuron.pdf
2a-JST-McCulloch-Pitts-Neuron.pdf2a-JST-McCulloch-Pitts-Neuron.pdf
2a-JST-McCulloch-Pitts-Neuron.pdf
 
Ppt neuralnet
Ppt neuralnetPpt neuralnet
Ppt neuralnet
 
1768 soal ujian quis
1768 soal ujian quis1768 soal ujian quis
1768 soal ujian quis
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
Radial Basis Function Network (RBFN)
Radial Basis Function Network (RBFN)Radial Basis Function Network (RBFN)
Radial Basis Function Network (RBFN)
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
 
Ifa2
Ifa2Ifa2
Ifa2
 
Ifa2
Ifa2Ifa2
Ifa2
 
Kecerdasan Buatan Diskusi 5.docx
Kecerdasan Buatan Diskusi 5.docxKecerdasan Buatan Diskusi 5.docx
Kecerdasan Buatan Diskusi 5.docx
 
Jaringan saraf-tiruan
Jaringan saraf-tiruanJaringan saraf-tiruan
Jaringan saraf-tiruan
 

Recently uploaded

Model Manajemen Strategi Public Relations
Model Manajemen Strategi Public RelationsModel Manajemen Strategi Public Relations
Model Manajemen Strategi Public RelationsAdePutraTunggali
 
Prakarsa Perubahan dengan Kanvas ATAP & BAGJA.pptx
Prakarsa Perubahan dengan Kanvas ATAP & BAGJA.pptxPrakarsa Perubahan dengan Kanvas ATAP & BAGJA.pptx
Prakarsa Perubahan dengan Kanvas ATAP & BAGJA.pptxSyaimarChandra1
 
Modul Ajar Bahasa Indonesia - Menulis Puisi Spontanitas - Fase D.docx
Modul Ajar Bahasa Indonesia - Menulis Puisi Spontanitas - Fase D.docxModul Ajar Bahasa Indonesia - Menulis Puisi Spontanitas - Fase D.docx
Modul Ajar Bahasa Indonesia - Menulis Puisi Spontanitas - Fase D.docxherisriwahyuni
 
AKSI NYATA Strategi Penerapan Kurikulum Merdeka di Kelas (1).pdf
AKSI NYATA Strategi Penerapan Kurikulum Merdeka di Kelas (1).pdfAKSI NYATA Strategi Penerapan Kurikulum Merdeka di Kelas (1).pdf
AKSI NYATA Strategi Penerapan Kurikulum Merdeka di Kelas (1).pdfTaqdirAlfiandi1
 
MATERI EKOSISTEM UNTUK SEKOLAH MENENGAH ATAS
MATERI EKOSISTEM UNTUK SEKOLAH MENENGAH ATASMATERI EKOSISTEM UNTUK SEKOLAH MENENGAH ATAS
MATERI EKOSISTEM UNTUK SEKOLAH MENENGAH ATASKurniawan Dirham
 
PELAKSANAAN + Link2 Materi TRAINING "Effective SUPERVISORY & LEADERSHIP Sk...
PELAKSANAAN  + Link2 Materi TRAINING "Effective  SUPERVISORY &  LEADERSHIP Sk...PELAKSANAAN  + Link2 Materi TRAINING "Effective  SUPERVISORY &  LEADERSHIP Sk...
PELAKSANAAN + Link2 Materi TRAINING "Effective SUPERVISORY & LEADERSHIP Sk...Kanaidi ken
 
MODUL 2 BAHASA INDONESIA-KELOMPOK 1.pptx
MODUL 2 BAHASA INDONESIA-KELOMPOK 1.pptxMODUL 2 BAHASA INDONESIA-KELOMPOK 1.pptx
MODUL 2 BAHASA INDONESIA-KELOMPOK 1.pptxarnisariningsih98
 
KONSEP KEBUTUHAN AKTIVITAS DAN LATIHAN.pptx
KONSEP KEBUTUHAN AKTIVITAS DAN LATIHAN.pptxKONSEP KEBUTUHAN AKTIVITAS DAN LATIHAN.pptx
KONSEP KEBUTUHAN AKTIVITAS DAN LATIHAN.pptxawaldarmawan3
 
1.2.a.6. Demonstrasi Konstektual - Modul 1.2 (Shinta Novianti - CGP A10).pdf
1.2.a.6. Demonstrasi Konstektual - Modul 1.2 (Shinta Novianti - CGP A10).pdf1.2.a.6. Demonstrasi Konstektual - Modul 1.2 (Shinta Novianti - CGP A10).pdf
1.2.a.6. Demonstrasi Konstektual - Modul 1.2 (Shinta Novianti - CGP A10).pdfShintaNovianti1
 
DEMONSTRASI KONTEKSTUAL MODUL 1.3 PENDIDIKAN GURU PENGGERAK
DEMONSTRASI KONTEKSTUAL MODUL 1.3 PENDIDIKAN GURU PENGGERAKDEMONSTRASI KONTEKSTUAL MODUL 1.3 PENDIDIKAN GURU PENGGERAK
DEMONSTRASI KONTEKSTUAL MODUL 1.3 PENDIDIKAN GURU PENGGERAKirwan461475
 
DESAIN MEDIA PEMBELAJARAN BAHASA INDONESIA BERBASIS DIGITAL.pptx
DESAIN MEDIA PEMBELAJARAN BAHASA INDONESIA BERBASIS DIGITAL.pptxDESAIN MEDIA PEMBELAJARAN BAHASA INDONESIA BERBASIS DIGITAL.pptx
DESAIN MEDIA PEMBELAJARAN BAHASA INDONESIA BERBASIS DIGITAL.pptxFuzaAnggriana
 
LAPORAN PKP KESELURUHAN BAB 1-5 NURUL HUSNA.pdf
LAPORAN PKP KESELURUHAN BAB 1-5 NURUL HUSNA.pdfLAPORAN PKP KESELURUHAN BAB 1-5 NURUL HUSNA.pdf
LAPORAN PKP KESELURUHAN BAB 1-5 NURUL HUSNA.pdfChrodtianTian
 
Wawasan Nusantara sebagai satu kesatuan, politik, ekonomi, sosial, budaya, d...
Wawasan Nusantara  sebagai satu kesatuan, politik, ekonomi, sosial, budaya, d...Wawasan Nusantara  sebagai satu kesatuan, politik, ekonomi, sosial, budaya, d...
Wawasan Nusantara sebagai satu kesatuan, politik, ekonomi, sosial, budaya, d...MarwanAnugrah
 
PPT Integrasi Islam & Ilmu Pengetahuan.pptx
PPT Integrasi Islam & Ilmu Pengetahuan.pptxPPT Integrasi Islam & Ilmu Pengetahuan.pptx
PPT Integrasi Islam & Ilmu Pengetahuan.pptxnerow98
 
demontrasi kontekstual modul 1.2.a. 6.pdf
demontrasi kontekstual modul 1.2.a. 6.pdfdemontrasi kontekstual modul 1.2.a. 6.pdf
demontrasi kontekstual modul 1.2.a. 6.pdfIndri117648
 
Modul 1.2.a.8 Koneksi antar materi 1.2.pdf
Modul 1.2.a.8 Koneksi antar materi 1.2.pdfModul 1.2.a.8 Koneksi antar materi 1.2.pdf
Modul 1.2.a.8 Koneksi antar materi 1.2.pdfSitiJulaeha820399
 
HARMONI DALAM EKOSISTEM KELAS V SEKOLAH DASAR.pdf
HARMONI DALAM EKOSISTEM KELAS V SEKOLAH DASAR.pdfHARMONI DALAM EKOSISTEM KELAS V SEKOLAH DASAR.pdf
HARMONI DALAM EKOSISTEM KELAS V SEKOLAH DASAR.pdfkustiyantidew94
 
Kelompok 2 Karakteristik Negara Nigeria.pdf
Kelompok 2 Karakteristik Negara Nigeria.pdfKelompok 2 Karakteristik Negara Nigeria.pdf
Kelompok 2 Karakteristik Negara Nigeria.pdftsaniasalftn18
 
Materi Strategi Perubahan dibuat oleh kelompok 5
Materi Strategi Perubahan dibuat oleh kelompok 5Materi Strategi Perubahan dibuat oleh kelompok 5
Materi Strategi Perubahan dibuat oleh kelompok 5KIKI TRISNA MUKTI
 
Jurnal Dwi mingguan modul 1.2-gurupenggerak.pptx
Jurnal Dwi mingguan modul 1.2-gurupenggerak.pptxJurnal Dwi mingguan modul 1.2-gurupenggerak.pptx
Jurnal Dwi mingguan modul 1.2-gurupenggerak.pptxBambang440423
 

Recently uploaded (20)

Model Manajemen Strategi Public Relations
Model Manajemen Strategi Public RelationsModel Manajemen Strategi Public Relations
Model Manajemen Strategi Public Relations
 
Prakarsa Perubahan dengan Kanvas ATAP & BAGJA.pptx
Prakarsa Perubahan dengan Kanvas ATAP & BAGJA.pptxPrakarsa Perubahan dengan Kanvas ATAP & BAGJA.pptx
Prakarsa Perubahan dengan Kanvas ATAP & BAGJA.pptx
 
Modul Ajar Bahasa Indonesia - Menulis Puisi Spontanitas - Fase D.docx
Modul Ajar Bahasa Indonesia - Menulis Puisi Spontanitas - Fase D.docxModul Ajar Bahasa Indonesia - Menulis Puisi Spontanitas - Fase D.docx
Modul Ajar Bahasa Indonesia - Menulis Puisi Spontanitas - Fase D.docx
 
AKSI NYATA Strategi Penerapan Kurikulum Merdeka di Kelas (1).pdf
AKSI NYATA Strategi Penerapan Kurikulum Merdeka di Kelas (1).pdfAKSI NYATA Strategi Penerapan Kurikulum Merdeka di Kelas (1).pdf
AKSI NYATA Strategi Penerapan Kurikulum Merdeka di Kelas (1).pdf
 
MATERI EKOSISTEM UNTUK SEKOLAH MENENGAH ATAS
MATERI EKOSISTEM UNTUK SEKOLAH MENENGAH ATASMATERI EKOSISTEM UNTUK SEKOLAH MENENGAH ATAS
MATERI EKOSISTEM UNTUK SEKOLAH MENENGAH ATAS
 
PELAKSANAAN + Link2 Materi TRAINING "Effective SUPERVISORY & LEADERSHIP Sk...
PELAKSANAAN  + Link2 Materi TRAINING "Effective  SUPERVISORY &  LEADERSHIP Sk...PELAKSANAAN  + Link2 Materi TRAINING "Effective  SUPERVISORY &  LEADERSHIP Sk...
PELAKSANAAN + Link2 Materi TRAINING "Effective SUPERVISORY & LEADERSHIP Sk...
 
MODUL 2 BAHASA INDONESIA-KELOMPOK 1.pptx
MODUL 2 BAHASA INDONESIA-KELOMPOK 1.pptxMODUL 2 BAHASA INDONESIA-KELOMPOK 1.pptx
MODUL 2 BAHASA INDONESIA-KELOMPOK 1.pptx
 
KONSEP KEBUTUHAN AKTIVITAS DAN LATIHAN.pptx
KONSEP KEBUTUHAN AKTIVITAS DAN LATIHAN.pptxKONSEP KEBUTUHAN AKTIVITAS DAN LATIHAN.pptx
KONSEP KEBUTUHAN AKTIVITAS DAN LATIHAN.pptx
 
1.2.a.6. Demonstrasi Konstektual - Modul 1.2 (Shinta Novianti - CGP A10).pdf
1.2.a.6. Demonstrasi Konstektual - Modul 1.2 (Shinta Novianti - CGP A10).pdf1.2.a.6. Demonstrasi Konstektual - Modul 1.2 (Shinta Novianti - CGP A10).pdf
1.2.a.6. Demonstrasi Konstektual - Modul 1.2 (Shinta Novianti - CGP A10).pdf
 
DEMONSTRASI KONTEKSTUAL MODUL 1.3 PENDIDIKAN GURU PENGGERAK
DEMONSTRASI KONTEKSTUAL MODUL 1.3 PENDIDIKAN GURU PENGGERAKDEMONSTRASI KONTEKSTUAL MODUL 1.3 PENDIDIKAN GURU PENGGERAK
DEMONSTRASI KONTEKSTUAL MODUL 1.3 PENDIDIKAN GURU PENGGERAK
 
DESAIN MEDIA PEMBELAJARAN BAHASA INDONESIA BERBASIS DIGITAL.pptx
DESAIN MEDIA PEMBELAJARAN BAHASA INDONESIA BERBASIS DIGITAL.pptxDESAIN MEDIA PEMBELAJARAN BAHASA INDONESIA BERBASIS DIGITAL.pptx
DESAIN MEDIA PEMBELAJARAN BAHASA INDONESIA BERBASIS DIGITAL.pptx
 
LAPORAN PKP KESELURUHAN BAB 1-5 NURUL HUSNA.pdf
LAPORAN PKP KESELURUHAN BAB 1-5 NURUL HUSNA.pdfLAPORAN PKP KESELURUHAN BAB 1-5 NURUL HUSNA.pdf
LAPORAN PKP KESELURUHAN BAB 1-5 NURUL HUSNA.pdf
 
Wawasan Nusantara sebagai satu kesatuan, politik, ekonomi, sosial, budaya, d...
Wawasan Nusantara  sebagai satu kesatuan, politik, ekonomi, sosial, budaya, d...Wawasan Nusantara  sebagai satu kesatuan, politik, ekonomi, sosial, budaya, d...
Wawasan Nusantara sebagai satu kesatuan, politik, ekonomi, sosial, budaya, d...
 
PPT Integrasi Islam & Ilmu Pengetahuan.pptx
PPT Integrasi Islam & Ilmu Pengetahuan.pptxPPT Integrasi Islam & Ilmu Pengetahuan.pptx
PPT Integrasi Islam & Ilmu Pengetahuan.pptx
 
demontrasi kontekstual modul 1.2.a. 6.pdf
demontrasi kontekstual modul 1.2.a. 6.pdfdemontrasi kontekstual modul 1.2.a. 6.pdf
demontrasi kontekstual modul 1.2.a. 6.pdf
 
Modul 1.2.a.8 Koneksi antar materi 1.2.pdf
Modul 1.2.a.8 Koneksi antar materi 1.2.pdfModul 1.2.a.8 Koneksi antar materi 1.2.pdf
Modul 1.2.a.8 Koneksi antar materi 1.2.pdf
 
HARMONI DALAM EKOSISTEM KELAS V SEKOLAH DASAR.pdf
HARMONI DALAM EKOSISTEM KELAS V SEKOLAH DASAR.pdfHARMONI DALAM EKOSISTEM KELAS V SEKOLAH DASAR.pdf
HARMONI DALAM EKOSISTEM KELAS V SEKOLAH DASAR.pdf
 
Kelompok 2 Karakteristik Negara Nigeria.pdf
Kelompok 2 Karakteristik Negara Nigeria.pdfKelompok 2 Karakteristik Negara Nigeria.pdf
Kelompok 2 Karakteristik Negara Nigeria.pdf
 
Materi Strategi Perubahan dibuat oleh kelompok 5
Materi Strategi Perubahan dibuat oleh kelompok 5Materi Strategi Perubahan dibuat oleh kelompok 5
Materi Strategi Perubahan dibuat oleh kelompok 5
 
Jurnal Dwi mingguan modul 1.2-gurupenggerak.pptx
Jurnal Dwi mingguan modul 1.2-gurupenggerak.pptxJurnal Dwi mingguan modul 1.2-gurupenggerak.pptx
Jurnal Dwi mingguan modul 1.2-gurupenggerak.pptx
 

JST-Pembelajaran

  • 2. Jaringan Syaraf Biologis • Otak manusia berisi jutaan sel syaraf (neuron) yang bertugas memproses informasi • Neuron saling berinteraksi satu sama lain mendukung kemampuan kerja otak manusia
  • 4. Sel Syaraf (Neuron) • Komponen utama neuron dapat dikelompokkan menjadi 3 bagian : – Dendrit = bertugas menerima informasi = jalur input bagi soma – Badan sel (soma) = tempat pengolahan informasi, di badan sel terdapat inti sel yang bertugas mengolah informasi – Akson = bertugas mengirimkan impuls- impuls sinyal ke sel syaraf lain = jalur output bagi soma – Antar dendrit dipertemukan dengan sinapsis
  • 5. Jaringan Syaraf Tiruan • Meniru cara kerja jaringan syaraf biologis • Generalisasi model matematis dari pemahaman manusia: – Pemrosesan informasi terjadi pada neuron – Sinyal mengalir diantara sel saraf/neuron melalui suatu sambungan penghubung – Setiap sambungan penghubung memiliki bobot yang bersesuaian. – Bobot ini akan digunakan untuk menggandakan / mengalikan sinyal yang dikirim melaluinya. – Setiap sel syaraf akan menerapkan fungsi aktivasi terhadap sinyal hasil penjumlahan berbobot yang masuk kepadanya untuk menentukan sinyal keluarannya.
  • 8. Model Sel Syaraf (Neuron)
  • 9. Model Sel Syaraf (Neuron)   k k p j j kj k v y x w v     0 Secara matematis: dan
  • 10. SUMMATION FUNCTION • Fungsi yang digunakan untuk mencari rata-rata bobot dari semua elemen input. • Bentuk sederhananya adalah dengan mengalikan setiap nilai input (Xj) dengan bobotnya (Wij) dan menjumlahkannya
  • 11. SUMMATION FUNCTION • Diibaratkan dengan sebuah neuron yang memonitor sinyal yang datang dari neuron-neuron lain. • Neuron ini menghitung penjumlahan berbobotnya dan kemudian menentukan sinyal untuk dikirim ke neuron-neuron lain.
  • 12. Fungsi Aktivasi  Dipakai untuk menentukan keluaran suatu neuron  Merupakan fungsi yang menggambarkan hubungan antara tingkat aktivasi internal (summation function) yang mungkin berbentuk linier atau nonlinear.  Beberapa fungsi aktivasi JST diantaranya hard limit, purelin, dan sigmoid. Yang populer digunakan adalah fungsi sigmoid yang memiliki beberapa varian : sigmoid logaritma, sigmoid biner, sigmoid bipolar, sigmoid tangen.
  • 13. Fungsi Aktivasi  Hard limit memberikan batasan tegas 0 atau 1, purelin memisahkan secara linier, sigmoid berupa fungsi smooth bernilai antara 0 sampai dengan 1 (bila biner) atau antara -1 sampai 1 (bila bipolar)
  • 14. Fungsi Aktivasi Hard limit function a = 0 jika n < 0 a = 1 jika n  0 n 0 +1 -1 a = hardlim ( n )
  • 15. Karakteristik JST • Dapat belajar dari pengalaman • Algoritma untuk JST beroperasi secara langsung dengan angka sehingga data yang tidak numerik harus diubah menjadi data numerik. • JST tidak diprogram untuk menghasilkan keluaran tertentu. Semua keluaran atau kesimpulan yang ditarik oleh jaringan didasarkan pada pengalamannya selama mengikuti proses pembelajaran. • Pada proses pembelajaran, ke dalam JST dimasukkan pola-pola input (dan output) lalu jaringan akan diajari untuk memberikan jawaban yang bisa diterima.
  • 16. Karakteristik JST • Ditentukan oleh : – Pola hubungan antar neuron (disebut arsitektur jaringan) – Metode penentuan bobot-bobot sambungan (disebut dengan pelatihan atau proses belajar jaringan) – Fungsi aktivasi
  • 17. Arsitektur JST • Pada JST, neuron-neuron akan dikumpulkan dalam lapisan-lapisan (layer) yang disebut dengan lapisan neuron (neuron layers). • Neuron-neuron pada satu lapisan akan dihubungkan dengan lapisan-lapisan sebelum dan sesudahnya. • Informasi yang diberikan pada jaringan syaraf akan dirambatkan lapisan ke lapisan, mulai dari lapisan input sampai ke lapisan output melalui lapisan tersembunyi (hidden layer).
  • 19. Arsitektur JST  Faktor terpenting untuk menentukan kelakuan suatu neuron adalah fungsi aktivasi dan pola bobotnya.  Umumnya neuron yang terletak pada lapisan yang sama akan memiliki keadaan yang sama → fungsi aktivasi yang sama.  Bila neuron-neuron pada suatu lapisan (misal lapisan tersembunyi) akan dihubungkan dengan neuron- neuron pada lapisan lain (misal lapisan output) maka setiap neuron pada lapisan tersebut (lapisan tersembunyi) juga harus dihubungkan dengan setiap neuron pada lapisan lainnya (lapisan output)
  • 20. Arsitektur JST • Ada beberapa arsitektur jaringan syaraf, antara lain : – Jaringan dengan lapisan tunggal (single layer net) – Jaringan dengan banyak lapisan (multilayer net) – Jaringan dengan lapisan kompetitif (competitive net)
  • 21. Single Layer Net  Hanya memiliki satu lapisan dengan bobot-bobot terhubung  Jaringan ini hanya menerima input kemudian secara langsung akan mengolahnya menjadi output tanpa harus melalui lapisan tersembunyi.
  • 22. Single Layer Net • Seberapa besar hubungan antara 2 neuron ditentukan oleh bobot yang bersesuaian. • Semua unit input akan dihubungkan dengan setiap unit output.
  • 24. Multilayer Net  Memiliki 1 atau lebih lapisan yang terletak diantara lapisan input dan lapisan output  Ada lapisan bobot yang terletak antara 2 lapisan yang bersebelahan  Jaringan dengan banyak lapisan ini dapat menyelesaikan permasalahan yang lebih sulit daripada lapisan tunggal, tentu saja dengan pembelajaran yang lebih rumit
  • 26. Competitive Net  Sekumpulan neuron bersaing untuk mendapatkan hak menjadi aktif  Umumnya hubungan antar neuron pada lapisan kompetitif ini tidak diperlihatkan pada diagram arsitektur
  • 28. Proses Pembelajaran Jaringan  Cara belajar JST :  Ke dalam JST diinputkan informasi yang sebelumnya telah diketahui hasil keluarannya.  Penginputan informasi ini dilakukan lewat node-node atau unit-unit input. Bobot- bobot antarkoneksi dalam suatu arsitektur diberi nilai awal dan kemudian JST dijalankan.
  • 29. Proses Pembelajaran Jaringan  Bobot-bobot ini bagi jaringan digunakan untuk belajar dan mengingat suatu informasi. Pengaturan bobot dilakukan secara terus-menerus dan dengan menggunakan kriteria tertentu sampai diperoleh keluaran yang diharapkan.  Hal yang ingin dicapai dengan melatih/mengajari JST adalah untuk mencapai keseimbangan antara kemampuan memorisasi dan generalisasi.
  • 30. Proses Pembelajaran Jaringan  Kemampuan memorisasi = kemampuan JST untuk memanggil kembali secara sempurna sebuah pola yang telah dipelajari.  Kemampuan generalisasi = adalah kemampuan JST untuk menghasilkan respon yang bisa diterima terhadap pola- pola input yang serupa (namun tidak identik) dengan pola-pola yang sebelumnya telah dipelajari.
  • 31. Metode Pembelajaran JST  Pembelajaran terawasi (supervised learning)  Pembelajaran tak terawasi (unsupervised learning)  Gabungan pembelajaran terawasi dan tak terawasi (hybrid)
  • 32. Pembelajaran Terawasi • Output yang diharapkan telah diketahui sebelumnya • Contoh : JST untuk mengenali pasangan pola, misalkan pada operasi AND Input Target 0 0 0 0 1 0 1 0 0 1 1 1
  • 33. Pembelajaran Terawasi • Satu pola input akan diberikan ke satu neuron pada lapisan input • Pola ini akan dirambatkan di sepanjang jaringan syaraf hingga sampai ke neuron pada lapisan output • Lapisan output ini akan membangkitkan pola output yang akan dicocokkan dengan pola output targetnya • Jika berbeda → error • Jika error terlalu besar, perlu dilakukan pembelajaran lebih banyak
  • 34. Pembelajaran Tak Terawasi • Tidak memerlukan target output • Tidak dapat ditentukan hasil yang diharapkan selama proses pembelajaran • Nilai bobot disusun dalam suatu range tertentu tergantung nilai input yang diberikan • Tujuannya untuk mengelompokkan unit yang hampir sama dalam suatu area tertentu
  • 35. Hybrid  Merupakan kombinasi dari kedua pembelajaran tersebut. Sebagian dari bobot-bobotnya ditentukan melalui pembelajaran terawasi dan sebagian lainnya melalui pembelajaran tak terawasi.
  • 37. Model Hebb Langkah-langkah : 1.Inisialisasi semua bobot = Wi = 0 (i=1,..,n) 2.Untuk semua vektor input s dan unit target t, lakukan : • Set aktivasi unit masukan Xi = Si (i=1,..,n) • Set aktivasi unit keluaran y = t • Perbaiki bobot menurut persamaan • Wi (baru) = Wi(lama)+∆W • ∆W = Xi.y • Perbaiki bias menurut persamaan : • b(baru) = b(lama)+y
  • 38. Contoh Kasus Membedakan pola : # o # # o o o # o # o o # o # # # # (X) (L) Bagaimana JST mengenali pola berikut : # # o # # o # # #
  • 39. Contoh Kasus # = 1, o = -1 X = 1, L = -1 Fungsi aktivasi : y = 1, jika y_in >= 0 y = -1, jika y_in < 0 # o # # o o o # o t=1 # o o t= -1 # o # # # #
  • 40. Contoh Kasus Input pertama : 1 -1 1 -1 1 -1 1 -1 1 ∆W = x.t, maka nilai ∆W untuk tiap input: 1 -1 1 -1 1 -1 1 -1 1 Bias = b.t = 1.1 = 1
  • 41. Contoh Kasus Input kedua : 1 -1 -1 1 -1 -1 1 1 1 ∆W = x.t, maka nilai ∆W untuk tiap input: -1 1 1 -1 1 1 -1 -1 -1 Bias = b.t = 1.-1 = -1
  • 42. Contoh Kasus Bobot baru : 0 0 2 -2 2 0 0 -2 0 Bias = 0
  • 43. Contoh Kasus Aplikasikan bobot baru ke input 1 : (1.0)+( -1.0)+(1.2)+(-1.-2)+(1.2)+ (-1.0)+(1.0)+(-1.-2)+(1.0) = 8 Jadi y = 1, sesuai target (t=1) Aplikasikan bobot baru ke input 2 : (1.0)+( -1.0)+(-1.2)+(1.-2)+(-1.2)+ (-1.0)+(1.0)+(1.-2)+(1.0) = -8 Jadi y = -1, sesuai target (t=-1) Jadi JST sudah bisa mengenali pola
  • 44. Contoh Kasus Aplikasikan ke pola yang baru : 1 1 -1 1 1 -1 1 1 1 Beri bobot yang baru : (1.0)+( -1.0)+ (-1.2)+(1.-2)+(-1.2)+ (-1.0)+(1.0)+ (1.-2)+(1.0) = -8 Jadi y = -1, dikenali sebagai L
  • 45. Perceptron Bentuk paling sederhana dari JST. Digunakan untuk pengklasifikasian pola khusus yang biasa disebut linearable separable. Terbatas hanya untuk mengklasifikasikan dua kelas saja.
  • 48. Perceptron x2 x1 Kelas K2 Kelas K1 Decision boundary w1x1 + w2x2 - Ө = 0
  • 49. Perceptron T p x x x x ] ... [ 2 1  Vektor input: Vektor bobot: Vektor output: T p w w w w ] ... [ 2 1  x w v T . 
  • 50. Perceptron  Aturan Pembelajaran (Learning Rule) Error e (sinyal kesalahan) dinyatakan sbb: e = t – y dimana : Jika e = 1 , maka wbaru = wlama + x ( 1 ) Jika e = -1 , maka wbaru = wlama – x ( 2 ) Jika e = 0 , maka wbaru = wlama ( 3 ) wbaru = wlama + e.x bbaru = blama + e
  • 51. Keterangan Variabel-Variabel e = error t = target x = input y = output w= bobot
  • 54. Contoh Kasus S y x1 w1 v x3 w3 No bias neuron x2 w2 • Ada 3 input yaitu x1,x2 dan x3 • Ada 3 bobot yaitu w1, w2 dan w3 • Tentukan bobot secara random, misal : w = [0.5 0.5 0.5]
  • 55. Contoh Kasus 1. Hitung jumlah input berbobot (v) (1*0.5)+(1*0.5)+(0*0.5) = 1
  • 56. Contoh Kasus 2. Fungsi Aktivasi (menggunakan hardlimit) y = 0 jika v < 0 y = 1 jika v  0 y = hardlimit(v) y = hardlimit(1) Jadi y = 1, sesuai target t = 1 untuk input pertama
  • 57. Contoh Kasus 3.Cek bobot apakah cocok dengan input kedua [0 1 1] dengan t=0, bobot [0.5 0.5 0.5] v = (0.5*0)+(0.5*1)+(0.5*1) = 1 y = hardlimit(1) y = 1, tidak sesuai dengan target, t = 0, maka harus dilakukan perubahan bobot
  • 59. Contoh Kasus 5. Hitung y dengan bobot yang baru v = (0.5*0)+(-0.5*1)+(-0.5*1) = -1 y = hardlimit(-1) = 0, sesuai dengan t=0 6. Cek bobot yang baru dengan input pertama v = (0.5*1)+(-0.5*1)+(-0.5*0) = 0 y = hardlimit(0) = 1, sesuai dengan t=1
  • 60. Perceptron 7. Jika semua input sudah diklasifikasi dengan benar, tidak perlu ada perubahan pada bobot sehingga digunakan aturan sbb: Jika t = y, maka wbaru = wlama
  • 63. Contoh Kasus 2 Kita pilih bobot secara random, misalnya: wT = [ 1 -0.8 ] Masukkan input x1 ke dalam jaringan dan output: y = hardlim (wT . x1 ) Input x1 tidak benar karena t1 = 1   0 ) 6 . 0 ( hardlim 2 1 8 . 0 1 hardlim                    y
  • 64. Contoh Kasus 2 p1 p2 n  1 n < 1 Perlu diputar berlawanan arah dengan jarum jam 1 2 3 1WT Cara mencari decision boundary: Jika, n = wp + b = 0 n = w1 .x1 + w2 . x2 = 0 Maka, x1 – 0.8 x2 = 0 5x1 – 4x2 = 0 Jika x2 = 1  x1 = 0.8 Jika x1 =1  x2 = 1.25
  • 65. Contoh Kasus 2 Jika t = 1, sedangkan y = 0, maka: wbaru = wlama + x Tes bobot baru ke jaringan: Hasil output y sesuai dengan target output = 1                         2 . 1 2 2 1 8 . 0 1 1 x w w lama baru   1 ) 4 . 4 ( hardlim 2 1 2 . 1 2 hardlim                  y
  • 66. Contoh Kasus 2 p1 p2 n  1 n < 1 1 WT 1 2 3 Cara mencari decision boundary: Jika, n = wp + b = 0 w1 .x1 + w2 . x2 = 0 Maka, 2x1 + 1.2 x2 = 0 Jika, x2 = 1  x1 = - 1.2/2 x1 = - 0.6
  • 67. Contoh Kasus 2 Tes input kedua: y = hardlim (wT . x2 ) Input x2 tidak benar karena t2 =0   1 ) 4 . 0 ( hardlim 2 1 2 . 1 2 hardlim                  y
  • 68. Contoh Kasus 2 Jika t = 0, sedangkan y = 1, maka: wbaru = wlama - x Tes bobot baru ke jaringan: Hasil output y sesuai dengan target output = 0                         8 . 0 3 2 1 2 . 1 2 2 x w w lama baru   0 ) 6 . 4 ( hardlim 2 1 8 . 0 3 hardlim                    y
  • 69. Contoh Kasus 2 Cara mencari decision boundary: Jika, n = wp + b = 0 w1 .x1 + w2 . x2 = 0 Maka, 3x1 – 0.8 x2 = 0 Jika, x2 = 2  x1 = 1.6/3 x1 = 8/15 p1 p2 n  1 n < 1 Perlu diputar berlawanan arah dengan jarum jam 1WT 1 2 3
  • 70. Contoh Kasus 2 Tes input ketiga: y = hardlim (wT . x3 ) Input x3 tidak benar karena t3 =0   1 ) 8 . 0 ( hardlim 1 0 8 . 0 3 hardlim                    y
  • 71. Contoh Kasus 2 Jika t = 0, sedangkan y = 1, maka: wbaru = wlama - x Tes bobot baru ke jaringan: Hasil output y sesuai dengan target output = 0                          2 . 0 3 1 0 8 . 0 3 3 x w w lama baru   0 ) 2 . 0 ( hardlim 1 0 2 . 0 3 hardlim                    y
  • 72. Contoh Kasus 2 Cara mencari decision boundary: Jika, n = wp + b = 0 w1 .x1 + w2 . x2 = 0 Maka, 3x1 + 0.2 x2 = 0 Jika, x2 = 1  x1 = -0.2/3 x1 = -1/15 p1 p2 n  1 n < 1 1 WT 1 2 3
  • 73. SOAL 1. Jelaskan apa itu Jaringan Saraf Tiruan. 2. Jelaskan apa itu perceptron. 3. Jelaskan dengan menggunakan bahasa anda untuk menyelesaikan soal dari contoh soal membedakan jeruk dan apel (page 52). 4. Jelaskan dengan menggunakan bahasa anda untuk menyelesaikan soal dari contoh kasus 2(page 61)