SlideShare a Scribd company logo
1 of 59
ARTIFICIAL NEURAL
NETWOK
KS141321 SISTEM CERDAS
Materi 6
Jurusan Sistem Informasi
ITS
OUTLINE
Pengantar Neural Network
Representasi NN
Karakteristik task untuk NN
Perceptron
ARTIFICIAL NEURAL
NETWORK
JARINGAN SARAF MANUSIA
 Sistem saraf bekerja melalui jaringan interkoneksi
miliaran neuron, 86 milyar neuron diantaranya
ada di otak manusia
 Neuron ini mengirimkan informasi dalam bentuk
impuls saraf
 Bertanggung jawab untuk mengendalikan dan
mengkoordinasikan semua fungsi tubuh
 Sistem saraf manusia yang bersangkutan dengan
menerima informasi dari dunia luar, pengolahan,
dan kemudian menghasilkan respon yang tepat
 Jaringan yang mengontrol dan mengkoordinasikan
semua kegiatan tubuh, dengan mengirimkan
pesan atau sinyal dari otak ke bagian-bagian
berbeda dari tubuh dan sebaliknya
STRUKTUR SEL
Neuron pada
manusia, terdiri
dari sel tubuh,
sebuah axon dan
banyak dendrit.
Axon :
penghubung yang
mengirimkan sinyal
keluaran neuron
menuju neuron
lainnya
Dendrit :
Fasilitator yang
menghubungkan
neuron dengan
axon dari neuron
lainnya
Nukleus :
Inti sel
pengolah
informasi
Sinapsis :
Berfungsi sebagai
persimpangan, di
mana impuls atau
informasi dapat
mengalir dari
satu neuron ke
yang lain
CARA KERJA SISTEM SARAF
 Neuron sensorik mengirimkan rangsangan atau impuls yang
diterima dari alat indera (mata, hidung, kulit) ke sistem saraf pusat
(otak dan sumsum tulang belakang)
 Interneuron berfungsi membaca impuls yang diterima dari neuron
sensorik dan memutuskan respon yang akan dihasilkan
 Otak memproses rangsangan tersebut dan mengirimkannya kembali
ke bagian lain dari tubuh, memberitahu mereka bagaimana bereaksi
terhadap jenis tertentu dari stimulus.
 Motor neuron bertanggung jawab untuk menerima sinyal dari saraf
otak dan tulang belakang, dan mengirim mereka ke bagian lain dari
tubuh
CARA KERJA NEURON
Cara kerja dari neuron adalah menggabungkan pengaruh dari
semua masukan dan mempertimbangkan apakah pengaruh
dari masukan tadi dapat mencapai threshold yang telah
ditetapkan atau tidak. Jika nilai threshold tadi tercapai, maka
neuron akan memproduksi keluaran dalam bentuk suatu pulsa
tertentu yang diproses dari sel hingga dikeluarkan melalui
axon. Jika hal ini terjadi, maka neuron sedang dalam keadaan
aktif.
ARTIFICIAL NEURAL
NETWORK
Artificial neural network (Neural Network) adalah sebuah sistem
untuk pemrosesan informasi dengan “meniru” cara kerja sistem
saraf biologis
NEURON PADA ARTIFICIAL
NEURAL NETWORK
 Tiap penghubung diasosiasikan dengan sebuah nilai bobot (w).
Seperti pada sebuah sinapsis, nilai bobot menentukan derajat
pengaruh dari sebuah neuron ke neuron yang lainnya.
Pengaruh dari sebuah neuron ke neuron yang lainnya
merupakan hasil kali dari nilai keluaran dari neuron-neuron
yang masuk ke neuron (x) dengan nilai bobot (w) yang
menghubungkan neuron-neuron tadi.
 Tiap neuron dikombinasikan dengan sebuah fungsi aktivasi
yang berfungsi sebagai penghubung dari penjumlahan semua
nilai masukan dengan nilai keluarannya. Keluaran dari neuron
inilah yang nantinya akan menentukan apakah sebuah neuron
itu aktif ataukah tidak.
REPRESENTASI
NEURAL NETWORK
ALVINN
 Prototype ANN dikembangkan tahun 1993
 Sistem kemudi otomatis kendaraan dengan
kecepatan normal di jalan raya
 ANN melakukan pembelajaran selama 5
menit untuk mengetahui bagaimana
manusia mengendarai kendaraan
 Alvinn berhasil menjalankan kendaraan
dengan kecepatan 70mph sejauh 90 mil di
jalan raya (sisi kiri jalan dengan lalu lintas
jalan normal)
ALVINN  Input data berasal dari kamera dengan
sensor sebanyak 960 berukuran 30x32
pixel
 Data diterima oleh 4 unit hidden layer
 Output dari hidden layer diterima oleh 30
unit output layer yang menunjukkan
seberapa banyak kemudi harus diputar
Bobot dari masing-masing
unit
KARAKTERISTIK TASK
UNTUK NEURAL
NETWORK
PROBLEM YANG BISA
DISELESAIKAN DENGAN
NEURAL NETWORK
 Data pelatihan terlalu banyak noisy
 Data yang kompleks
 Penggunaan representasi simbolik, misalnya decision tree
KARAKTERSITIK PROBLEM
NEURAL NETWORK
Neural network bisa menyelesaikan problem yang mempunyai
karakteristik :
 Instance direpresentasikan dalam pasangan attribute-value yang
banyak
 Target output bisa bernilai diskrit, real, atau vector(diskrit/real)
 Penggunaan representasi simbolik, misalnya decision tree
 Data training bisa mengandung error
 Tidak ada batasan waktu pelatihan
 Dibutuhkannya evaluasi yang cepat terhadap proses pembelajaran
 Tidak mementingkan kemampuan manusia untuk mengerti proses
pembelajaran
PENGGUNAAN NEURAL
NETWORK
 Pemrosesan Sinyal
 Sistem kendali
 Pengenalan Pola
 Kedokteran
 Sintesa dan Pengenalan suara
 Bisnis
PEMROSESAN SINYAL
 Menghapus
gangguan
suara
 Menghapus
gema suara
SISTEM KENDALI
Kendali
robot
PENGENALAN POLA
Pengenalan Huruf Pengenalan gambar
KEDOKTERAN
 Diagnosa
Penyakit
SINTESA DAN PENGENALAN
SUARA
 Sintesa
suara
 Pengenalan
suara
BISNIS
 Prediksi
harga
saham
 Prediksi
kegagalan
bisnis
PERCEPTRON
STRUKTUR ARTIFICIAL
NEURAL NETWORK
Multilayer feedfoward Single layer organized
terhubung penuh feature map
Two layer feedfoward
PERCEPTRON
 Arsitektur sederhana dalam
jaringan syaraf tiruan terdiri dari
satu layer input unit (yang jumlah
neuronnya sesuai dengan
banyaknya jumlah komponen dari
data yang ingin dikenali) dan satu
output unit
MODEL PERCEPTRON
PEMBELAJARAN
PERCEPTRON
 Pembelajaran dengan perceptron memiliki asumsi bahwa
prosedur pembelajaran terbukti untuk mengarahkan bobot
menjadi konvergen. Perbedaan mendasar dengan Hebb net
adalah pada perceptron terdapat error pada input pattern yang
dilatihkan, maka bobot akan berubah sesuai dengan formula
w i (new) = w i (old) + tx i
 dan jika tidak terdapat error maka nilai bobot tidak akan
berubah, atau dengan kata lain bahwa bobot hanya berubah
mengikuti kondisi tertentu.
PEMBELAJARAN
PERCEPTRON
Algoritma
Langkah 0 Inisialisasi semua bobot dan bias
Untuk kemudahan, set bobot dan bias = 0
Set learning rate  ( 0   1) Untuk kemudahan, set  =1
Langkah 1
selama kondisi stop tidak terpenuhi, lakukan langkah 2 – 6
Langkah 2
untuk setiap pasangan vektor input dan target output , s : t,
lakukan langkah 3 – 5
Langkah 3 Set aktivasi input :
x i = s i ,
Langkah 4 Hitung output :
y_in = b + i x i w i
PEMBELAJARAN
PERCEPTRON
Algoritma
y = 1 jika y_in > 
0 jika -   y_in  
-1 jika y_in < 
Langkah 5 update nilai bobot dan bias jika terjadi error
If y  t
w i (new) = w i (old) + tx i
b (new) = b (old) + t
else
w i (new) = w i (old)
b (new) = b (old)
Langkah 6 Tes kondisi stop
Jika tidak ada bobot yang berubah pada step 2, maka stop,
selain itu lanjutkan
FUNGSI AKTIVASI
Melakukan transformasi input neuron menjadi output
# sign function
theta <- 0.5
yin <- 0.6
y <- 0
if (yin > theta) {
y <- 1
}
if (yin < -theta) {
y <- -1
}
# step function
theta <- 0.5
yin <- 2
if (yin > theta) {
y <- 1
} else {
y <- -1
}
# sigmoid function
yin <- 2
exp_value <- exp(-yin)
y <- 1 / (1 + exp_value)
print (sprintf ("yin=%g, y=%g", yin, y))
CONTOH
PERHITUNGAN
ARSITEKTUR
Simple Perceptron
X1
X2
Xn
Y
1
.
.
.
b
W1
W2
Wn
W X + b = 0
b + i x i w I = 0
EXAMPLE 1
Bagaimana
memisahkan dua
kelompok tsb?
X1 X2 1 Target
1 1 1 1
1 0 1 -1
0 1 1 -1
0 0 1 -1
x1
x2
Decision boundary
w1 x1 + w2 x2 + b = 0
W X + b = 0
EXAMPLE 1
Bagaimana
memisahkan dua
kelompok tsb ?
Berapa nilai w1,
w2, w3 agar
diperoleh decision
boundary yang
optimal ?
x1
x2
Decision boundary
w1 X1 + w2 X2 + b = 0
w1 X1 + w2 X2 + b >= 0
w1 X1 + w2 X2 + b <
0
W X + b = 0
EXAMPLE 1
Berapa nilai w1,
w2, w3 agar
diperoleh decision
boundary yang
optimal ?
Boundary decision
:
f(x1, x2)
x1
x2
Decision boundary
w1 X1 + w2 X2 + b = 0
w1 X1 + w2 X2 + b >= 0
w1 X1 + w2 X2 + b <
0
1 if w1 X1 + w2 X2 + b >= 0
f(x1, x2) =
-1 if w1 X1 + w2 X2 + b < 0
EXAMPLE 1
Berapa nilai w1, w2, w3 agar diperoleh
decision boundary yang optimal ?
1 if w1 X1 + w2 X2 + b >= 0
f(x1, x2) =
-1 if w1 X1 + w2 X2 + b < 0
 Step 0 : Inisialisasi bobot (w) dan bias (b)
Set learning rate
 Step 1 : jalankan step 2-6 selama kondisi
false
 Step 2 : Training untuk setiap record
 Step 3 : set aktifasi input
 Step 4 : Hitung respon output
 Step 5 : Update bobot dan bias
 Step 6 : Test kondisi (ada perubahan nilai bobot)
EXAMPLE 1
Threshold
= 0.8
Inputs Weight
Weight
ed Sum
Output
produce
d
Output
Target
Action
1 1 1 50% 1.5 1 1 None
1 0 1 50% 1 1 -1 Decrease
0 1 1 50% 1 1 -1 Decrease
0 0 1 50% 0.5 -1 -1 None
Inputs Weight
Weight
ed Sum
Output
produced
Actual
Output
Action
1 1 1 50% 1.5 1 1 None
1 0 1 40% 0.8 -1 -1 None
0 1 1 40% 0.8 -1 -1 None
0 0 1 50% 0.5 -1 -1 None
EXAMPLE 2
A perceptron is an artificial
neuron similar to a single
biological neuron. It takes a
set of weighted inputs, sums
the inputs and compares the
result with a threshold value.
If the result is above the
threshold value, the
perceptron fires, otherwise it
does not. When a perceptron
fires, the output is 1: when it
does not fire, the output is
zero.
Sebuah perceptron
Wi Xi + b = 0
EXAMPLE 2
Assume a case study with
three inputs and one output.
There are already four
examples with known inputs
and outputs
This set of inputs is used to
train a perceptron with all
equal weights (w1 = w2 =
w3).
 The threshold is set to 0.8.
The original weight for all
inputs is 0.5
The weights remain the
EXAMPLE 2
The weights are
increased by 10% if
the output produced
is less than the output
data: the weights are
decreased by 10% if
the output produced
is greater than the
output data.
Inputs Weight Action
1 0 0 50% 0.5 0 0 None
0 0 1 50% 0.5 0 0 None
1 0 1 50% 1 1 0 Decrease
1 1 1 50% 1.5 1 1 None
Weighted
Sum
Output
produced
Actual
Output
Inputs Weight Action
1 0 0 50% 0.5 0 0 None
0 0 1 50% 0.5 0 0 None
1 0 1 40% 0.8 0 0 None
1 1 1 50% 1.5 1 1 None
Weighted
Sum
Output
produced
Actual
Output
ALGORITMA
 Step 0 : Inisialisasi bobot (w) dan bias (b)
Set learning rate
 Step 1 : jalankan step 2-6 selama kondisi false
 Step 2 : Training untuk setiap record
 Step 3 : set aktifasi input
 Step 4 : Hitung respon output
 Step 5 : Update bobot dan bias
 Step 6 : Test kondisi (ada perubahan nilai bobot)
)
1
0
( 
 
FORMULA
Respon Output
Update bobot dan bias












 




in
y
jika
y_in
jika
in
y
jika
y
w
x
b
in
y
i
i
i
_
1
0
_
1
_
)
(
)
(
)
(
)
(
)
(
)
(
)
(
)
(
lama
b
baru
b
lama
w
baru
w
t
y
jika
t
lama
b
baru
b
tx
lama
w
baru
w
t
y
jika
i
i
i
i
i










ITERASI
Untuk penyederhanaan, w=0, b=0, 1,   0
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w2 b)
(0 0 0)
(1 1 1) 1
ITERASI
Epoch 1 baris 1
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w2 b)
(0 0 0)
(1 1 1) 0 0 1 (1 1 1) (1 1 1)
Net = b +
(x1*w1+x2*w2)
Net = 0 + (1*0+1*0)
Net = 0
1 jika Net
>0
Out = 0 jika Net
=0
-1 jika
Net<0
dW1 = TX1= 1*1*1 =
1
dW2 = TX2= 1*1*1 =
1
dW3 = TX3= 1*1*1 =
1
W1 = W1+dW1 = 0+1 =
1
W2 = W2+dW2 = 0+1 =
1
W3 = W3+dW3 = 0+1 =
1
ITERASI
Epoch 1 baris 2
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w
2
b)
(1 1 1)
(1 0 1) 2 1 -1 (-1 0 -1) (0 1 0)
Net = 1 +
(x1*w1+x2*w2)
Net = 1 + (1*1+0*1)
Net = 2
1 jika Net
>0
Out = 0 jika Net
=0
-1 jika
Net<0
dW1 = TX1= 1*-1*1 =
-1
dW2 = TX2= 1*-1*0 =
0
dW3 = TX3= 1*-1*1 =
-1
W1 = W1+dW1 = 1-1 =
0
W2 = W2+dW2 = 1+0 =
1
W3 = W3+dW3 = 1-1 =
0
ITERASI
Epoch 1 baris 3
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w2 b)
(0 1 0)
(0 1 1) 1 1 -1 (0 -1 -1) (0 0 -1)
Net = b +
(x1*w1+x2*w2)
Net = 0 + (0*0+1*1)
Net = 1
1 jika Net
>0
Out = 0 jika Net
=0
-1 jika
Net<0
dW1 = TX1= 1*-1*0 =
0
dW2 = TX2= 1*-1*1 =
-1
dW3 = TX3= 1*-1*1 =
-1
W1 = W1+dW1 = 0+0
= 0
W2 = W2+dW2 = 1-1 =
0
W3 = W3+dW3 = 0-1 =
-1
ITERASI
Epoch 1 baris 4
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W
1
w2 b)
(0 0 -1)
(0 0 1) -1 -1 -1 (0 0 0) (0 0 -1)
Net = b +
(x1*w1+x2*w2)
Net = -1 + (0*0+0*0)
Net = -1
1 jika Net
>0
Out = 0 jika Net
=0
-1 jika
Net<0
Karena out=target,
maka tidak ada
perubahan bobot
W1 = W1+dW1 = 0+1 =
1
W2 = W2+dW2 = 0+1 =
1
W3 = W3+dW3 = 0+1 =
1
ITERASI
Epoch 1
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w
2
b)
(1 1 1) 0 0 1 (1 1 1) (1 1 1)
(1 0 1) 2 1 -1 (-1 0 -1) (0 1 0)
(0 1 1) 1 1 -1 (0 -1 -1) (0 0 -1)
(0 0 1) -1 -1 -1 (0 0 0) (0 0 -1)
ITERASI
Epoch 2
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w2 b)
(1 1 1) -1 -1 1 (1 1 1) (1 1 0)
(1 0 1) 1 1 -1 (-1 0 -1) (0 1 -1)
(0 1 1) 0 0 -1 (0 -1 -1) (0 0 -2)
(0 0 1) -2 -1 -1 0 0 0 (0 0 -2)
ITERASI
Epoch 3
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w2 b)
(1 1 1) -2 -1 1 (1 1 1) (1 1 -1)
(1 0 1) 0 0 -1 (-1 0 -1) (0 1 -2)
(0 1 1) -1 -1 -1 (0 0 0) (0 1 -2)
(0 0 1) -2 -1 -1 (0 0 0) (0 1 -2)
ITERASI
Epoch 4
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w2 b)
(1 1 1) -1 -1 1 (1 1 1) (1 2 -1)
(1 0 1) 0 0 -1 (-1 0 -1) (0 2 -2)
(0 1 1) 0 0 -1 (0 -1 -1) (0 1 -3)
(0 0 1) -3 -1 -1 (0 0 0) (0 1 -3)
ITERASI
Epoch 5
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W
1
w2 b)
(1 1 1) -2 -1 1 (1 1 1) (1 2 -2)
(1 0 1) -1 -1 -1 (0 0 0) (1 2 -2)
(0 1 1) 0 0 -1 (0 -1 -1) (1 1 -3)
(0 0 1) -3 -1 -1 (0 0 0) (1 1 -3)
ITERASI
Epoch 6
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w
2
b)
(1 1 1) -1 -1 1 (1 1 1) (2 2 -2)
(1 0 1) 0 0 -1 (-1 0 -1) (1 2 -3)
(0 1 1) -1 -1 -1 (0 0 0) (1 2 -3)
(0 0 1) -3 -1 -1 (0 0 0) (1 2 -3)
ITERASI
Epoch 7
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w
2
b)
(1 1 1) 0 0 1 (1 1 1) (2 3 -2)
(1 0 1) 0 0 -1 (-1 0 -1) (1 3 -3)
(0 1 1) 0 0 -1 (0 -1 -1) (1 2 -4)
(0 0 1) -4 -1 -1 (0 0 0) (1 2 -4)
ITERASI
Epoch 8
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w2 b)
(1 1 1) -1 -1 1 (1 1 1) (2 3 -3)
(1 0 1) -1 -1 -1 (0 0 0) (2 3 -3)
(0 1 1) 0 0 -1 (0 -1 -1) (2 2 -4)
(0 0 1) -4 -1 -1 (0 0 0) (2 2 -4)
ITERASI
Epoch 9
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w
2
b)
(1 1 1) 0 0 1 (1 1 1) 3 3 -3
(1 0 1) 0 0 -1 (-1 0 -1) (2 3 -4)
(0 1 1) -1 -1 -1 (0 0 0) (2 3 -4)
(0 0 1) -4 -1 -1 (0 0 0) (2 3 -4)
ITERASI
Epoch 10
Input Net Out
Targ
et
Weight Changes Weight
(x1 x2 1) (W1 w
2
b)
(1 1 1) 1 1 1 (0 0 0) (2 3 -4)
(1 0 1) -2 -1 -1 (0 0 0) (2 3 -4)
(0 1 1) -1 -1 -1 (0 0 0) (2 3 -4)
(0 0 1) -4 -1 -1 (0 0 0) (2 3 -4)
Coming Up:
ARTIFICIAL NEURAL
NETWORK
backpropagation
REFERENCES
1. Stuart Russell,Peter Norvig. 2009. Artificial Intelligence: A Modern
Approach (3rd Edition)
2. Dan Klein, Pieter Abbeel. 2013. Courseware edX Artificial
Intelligence University of California at Berkeley
3. D. Poole & A. Mackworth. 2010. Artificial Intelligence:
Foundations of Computational Agents. Cambridge University
Press
4. Tom M Michele, 1997, Machine Learning
5. Laurene Fausett, 1993, Fundamental of Neural Network :
Architecture, Algorithm and Applications

More Related Content

What's hot

operasi dasar citra (iii) (pengolahan citra digital)
operasi dasar citra (iii) (pengolahan citra digital)operasi dasar citra (iii) (pengolahan citra digital)
operasi dasar citra (iii) (pengolahan citra digital)khaerul azmi
 
Context Free Grammar 1 - Materi 6 - TBO
Context Free Grammar 1 - Materi 6 - TBOContext Free Grammar 1 - Materi 6 - TBO
Context Free Grammar 1 - Materi 6 - TBOahmad haidaroh
 
Konsep pemrograman prosedur dalam pascal
Konsep pemrograman prosedur dalam pascalKonsep pemrograman prosedur dalam pascal
Konsep pemrograman prosedur dalam pascalSimon Patabang
 
Pengolahan Citra 3 - Operasi-operasi Digital
Pengolahan Citra 3 - Operasi-operasi DigitalPengolahan Citra 3 - Operasi-operasi Digital
Pengolahan Citra 3 - Operasi-operasi DigitalNur Fadli Utomo
 
[RPL2] Class Diagram dan Relasinya (2)
[RPL2] Class Diagram dan Relasinya (2)[RPL2] Class Diagram dan Relasinya (2)
[RPL2] Class Diagram dan Relasinya (2)rizki adam kurniawan
 
Pumping Lemma-rl - Materi 5 - TBO
Pumping Lemma-rl - Materi 5 - TBOPumping Lemma-rl - Materi 5 - TBO
Pumping Lemma-rl - Materi 5 - TBOahmad haidaroh
 
modul cisco packet tracer unutuk simulasi jaringan komputer
modul cisco packet tracer unutuk simulasi jaringan komputermodul cisco packet tracer unutuk simulasi jaringan komputer
modul cisco packet tracer unutuk simulasi jaringan komputerseolangit7
 
Pernyataan Kondisi dalam Pemrograman PHP
Pernyataan  Kondisi dalam Pemrograman PHPPernyataan  Kondisi dalam Pemrograman PHP
Pernyataan Kondisi dalam Pemrograman PHPI Gede Iwan Sudipa
 
Shortest Path Problem: Algoritma Dijkstra
Shortest Path Problem: Algoritma DijkstraShortest Path Problem: Algoritma Dijkstra
Shortest Path Problem: Algoritma DijkstraOnggo Wiryawan
 
Pertemuan 3 turunan dan aturan rantai
Pertemuan 3   turunan dan aturan rantaiPertemuan 3   turunan dan aturan rantai
Pertemuan 3 turunan dan aturan rantaiSenat Mahasiswa STIS
 
Laporan Praktikum Web dengan PHP
Laporan Praktikum Web dengan PHPLaporan Praktikum Web dengan PHP
Laporan Praktikum Web dengan PHPOkta Riveranda
 

What's hot (20)

Fungsi grafik di matlab
Fungsi grafik di matlabFungsi grafik di matlab
Fungsi grafik di matlab
 
[PBO] Pertemuan 6 - Interface
[PBO] Pertemuan 6 - Interface[PBO] Pertemuan 6 - Interface
[PBO] Pertemuan 6 - Interface
 
operasi dasar citra (iii) (pengolahan citra digital)
operasi dasar citra (iii) (pengolahan citra digital)operasi dasar citra (iii) (pengolahan citra digital)
operasi dasar citra (iii) (pengolahan citra digital)
 
Open GL Tutorial09
Open GL Tutorial09Open GL Tutorial09
Open GL Tutorial09
 
Context Free Grammar 1 - Materi 6 - TBO
Context Free Grammar 1 - Materi 6 - TBOContext Free Grammar 1 - Materi 6 - TBO
Context Free Grammar 1 - Materi 6 - TBO
 
Konsep pemrograman prosedur dalam pascal
Konsep pemrograman prosedur dalam pascalKonsep pemrograman prosedur dalam pascal
Konsep pemrograman prosedur dalam pascal
 
Jaringan hebb
Jaringan hebbJaringan hebb
Jaringan hebb
 
Diklat kalkulus
Diklat kalkulusDiklat kalkulus
Diklat kalkulus
 
Materi 6. perulangan
Materi 6. perulanganMateri 6. perulangan
Materi 6. perulangan
 
Pengolahan Citra 3 - Operasi-operasi Digital
Pengolahan Citra 3 - Operasi-operasi DigitalPengolahan Citra 3 - Operasi-operasi Digital
Pengolahan Citra 3 - Operasi-operasi Digital
 
[RPL2] Class Diagram dan Relasinya (2)
[RPL2] Class Diagram dan Relasinya (2)[RPL2] Class Diagram dan Relasinya (2)
[RPL2] Class Diagram dan Relasinya (2)
 
Pumping Lemma-rl - Materi 5 - TBO
Pumping Lemma-rl - Materi 5 - TBOPumping Lemma-rl - Materi 5 - TBO
Pumping Lemma-rl - Materi 5 - TBO
 
Metode belajar hebbian supervised
Metode belajar hebbian supervisedMetode belajar hebbian supervised
Metode belajar hebbian supervised
 
modul cisco packet tracer unutuk simulasi jaringan komputer
modul cisco packet tracer unutuk simulasi jaringan komputermodul cisco packet tracer unutuk simulasi jaringan komputer
modul cisco packet tracer unutuk simulasi jaringan komputer
 
Bab 6 aplikasi-integral
Bab 6 aplikasi-integralBab 6 aplikasi-integral
Bab 6 aplikasi-integral
 
Pernyataan Kondisi dalam Pemrograman PHP
Pernyataan  Kondisi dalam Pemrograman PHPPernyataan  Kondisi dalam Pemrograman PHP
Pernyataan Kondisi dalam Pemrograman PHP
 
Shortest Path Problem: Algoritma Dijkstra
Shortest Path Problem: Algoritma DijkstraShortest Path Problem: Algoritma Dijkstra
Shortest Path Problem: Algoritma Dijkstra
 
Bahasa chomsky
Bahasa chomskyBahasa chomsky
Bahasa chomsky
 
Pertemuan 3 turunan dan aturan rantai
Pertemuan 3   turunan dan aturan rantaiPertemuan 3   turunan dan aturan rantai
Pertemuan 3 turunan dan aturan rantai
 
Laporan Praktikum Web dengan PHP
Laporan Praktikum Web dengan PHPLaporan Praktikum Web dengan PHP
Laporan Praktikum Web dengan PHP
 

Similar to ANN-OPTIMAL DECISION BOUNDARY

Similar to ANN-OPTIMAL DECISION BOUNDARY (20)

05c neural network-mlp
05c neural network-mlp05c neural network-mlp
05c neural network-mlp
 
Back propagation
Back propagationBack propagation
Back propagation
 
Jaringan Syaraf Tiruan
Jaringan Syaraf TiruanJaringan Syaraf Tiruan
Jaringan Syaraf Tiruan
 
19511 19 & 20 jst
19511 19 & 20 jst19511 19 & 20 jst
19511 19 & 20 jst
 
14237 19 & 20 jst
14237 19 & 20 jst14237 19 & 20 jst
14237 19 & 20 jst
 
Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)
 
pertemuan-11-jst.ppt
pertemuan-11-jst.pptpertemuan-11-jst.ppt
pertemuan-11-jst.ppt
 
Dkc 2 kelompok 2
Dkc 2 kelompok 2Dkc 2 kelompok 2
Dkc 2 kelompok 2
 
Jaringan perceptron & matlab
Jaringan perceptron & matlabJaringan perceptron & matlab
Jaringan perceptron & matlab
 
Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)
 
backpropagation
backpropagationbackpropagation
backpropagation
 
Contoh Program Jaringan Syaraf Tiruan Sederhana
Contoh Program Jaringan Syaraf Tiruan SederhanaContoh Program Jaringan Syaraf Tiruan Sederhana
Contoh Program Jaringan Syaraf Tiruan Sederhana
 
Back propagation
Back propagationBack propagation
Back propagation
 
Jar perceptron
Jar perceptronJar perceptron
Jar perceptron
 
Artificial-Neural-Networks-.pptx
Artificial-Neural-Networks-.pptxArtificial-Neural-Networks-.pptx
Artificial-Neural-Networks-.pptx
 
Penggunaan algoritma genetika kusumoputro dan irwanto
Penggunaan algoritma genetika kusumoputro dan irwantoPenggunaan algoritma genetika kusumoputro dan irwanto
Penggunaan algoritma genetika kusumoputro dan irwanto
 
Dw 9-intelijensi buatan
Dw 9-intelijensi buatanDw 9-intelijensi buatan
Dw 9-intelijensi buatan
 
JST.ppt
JST.pptJST.ppt
JST.ppt
 
Machine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdfMachine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdf
 
2a-JST-McCulloch-Pitts-Neuron.pdf
2a-JST-McCulloch-Pitts-Neuron.pdf2a-JST-McCulloch-Pitts-Neuron.pdf
2a-JST-McCulloch-Pitts-Neuron.pdf
 

Recently uploaded

SKP GURU satuan kinerja pegawai tahun 2023 untuk PNS Aceh
SKP GURU satuan kinerja pegawai tahun 2023 untuk PNS AcehSKP GURU satuan kinerja pegawai tahun 2023 untuk PNS Aceh
SKP GURU satuan kinerja pegawai tahun 2023 untuk PNS AcehBISMIAULIA
 
PPT Olah Nilai Kurikulum merdeka belajar.pptx
PPT Olah Nilai Kurikulum merdeka belajar.pptxPPT Olah Nilai Kurikulum merdeka belajar.pptx
PPT Olah Nilai Kurikulum merdeka belajar.pptxnursariheldaseptiana
 
kesalahan tipe 1 dan 2 pada statistik.pptx
kesalahan tipe 1 dan 2 pada statistik.pptxkesalahan tipe 1 dan 2 pada statistik.pptx
kesalahan tipe 1 dan 2 pada statistik.pptxAhmadSyajili
 
415418921-statistika- mean media modus data tunggal dan data kelompok
415418921-statistika- mean media modus data tunggal dan data kelompok415418921-statistika- mean media modus data tunggal dan data kelompok
415418921-statistika- mean media modus data tunggal dan data kelompokelmalinda2
 
MARIA NOVILIA BOISALA FASILITATOR PMM.pptx
MARIA NOVILIA BOISALA FASILITATOR PMM.pptxMARIA NOVILIA BOISALA FASILITATOR PMM.pptx
MARIA NOVILIA BOISALA FASILITATOR PMM.pptxmariaboisala21
 
Manajemen Lalu Lintas Baru Di Jalan Selamet Riyadi
Manajemen Lalu Lintas Baru Di Jalan Selamet RiyadiManajemen Lalu Lintas Baru Di Jalan Selamet Riyadi
Manajemen Lalu Lintas Baru Di Jalan Selamet RiyadiCristianoRonaldo185977
 
Metode penelitian Deskriptif atau Survei
Metode penelitian Deskriptif atau SurveiMetode penelitian Deskriptif atau Survei
Metode penelitian Deskriptif atau Surveikustiyantidew94
 
pertemuan-3-distribusi pada-frekuensi.ppt
pertemuan-3-distribusi pada-frekuensi.pptpertemuan-3-distribusi pada-frekuensi.ppt
pertemuan-3-distribusi pada-frekuensi.pptAhmadSyajili
 
MATERI SESI 2 KONSEP ETIKA KOMUNIKASI.pptx
MATERI SESI 2 KONSEP ETIKA KOMUNIKASI.pptxMATERI SESI 2 KONSEP ETIKA KOMUNIKASI.pptx
MATERI SESI 2 KONSEP ETIKA KOMUNIKASI.pptxrikosyahputra0173
 

Recently uploaded (9)

SKP GURU satuan kinerja pegawai tahun 2023 untuk PNS Aceh
SKP GURU satuan kinerja pegawai tahun 2023 untuk PNS AcehSKP GURU satuan kinerja pegawai tahun 2023 untuk PNS Aceh
SKP GURU satuan kinerja pegawai tahun 2023 untuk PNS Aceh
 
PPT Olah Nilai Kurikulum merdeka belajar.pptx
PPT Olah Nilai Kurikulum merdeka belajar.pptxPPT Olah Nilai Kurikulum merdeka belajar.pptx
PPT Olah Nilai Kurikulum merdeka belajar.pptx
 
kesalahan tipe 1 dan 2 pada statistik.pptx
kesalahan tipe 1 dan 2 pada statistik.pptxkesalahan tipe 1 dan 2 pada statistik.pptx
kesalahan tipe 1 dan 2 pada statistik.pptx
 
415418921-statistika- mean media modus data tunggal dan data kelompok
415418921-statistika- mean media modus data tunggal dan data kelompok415418921-statistika- mean media modus data tunggal dan data kelompok
415418921-statistika- mean media modus data tunggal dan data kelompok
 
MARIA NOVILIA BOISALA FASILITATOR PMM.pptx
MARIA NOVILIA BOISALA FASILITATOR PMM.pptxMARIA NOVILIA BOISALA FASILITATOR PMM.pptx
MARIA NOVILIA BOISALA FASILITATOR PMM.pptx
 
Manajemen Lalu Lintas Baru Di Jalan Selamet Riyadi
Manajemen Lalu Lintas Baru Di Jalan Selamet RiyadiManajemen Lalu Lintas Baru Di Jalan Selamet Riyadi
Manajemen Lalu Lintas Baru Di Jalan Selamet Riyadi
 
Metode penelitian Deskriptif atau Survei
Metode penelitian Deskriptif atau SurveiMetode penelitian Deskriptif atau Survei
Metode penelitian Deskriptif atau Survei
 
pertemuan-3-distribusi pada-frekuensi.ppt
pertemuan-3-distribusi pada-frekuensi.pptpertemuan-3-distribusi pada-frekuensi.ppt
pertemuan-3-distribusi pada-frekuensi.ppt
 
MATERI SESI 2 KONSEP ETIKA KOMUNIKASI.pptx
MATERI SESI 2 KONSEP ETIKA KOMUNIKASI.pptxMATERI SESI 2 KONSEP ETIKA KOMUNIKASI.pptx
MATERI SESI 2 KONSEP ETIKA KOMUNIKASI.pptx
 

ANN-OPTIMAL DECISION BOUNDARY

  • 1. ARTIFICIAL NEURAL NETWOK KS141321 SISTEM CERDAS Materi 6 Jurusan Sistem Informasi ITS
  • 2. OUTLINE Pengantar Neural Network Representasi NN Karakteristik task untuk NN Perceptron
  • 4. JARINGAN SARAF MANUSIA  Sistem saraf bekerja melalui jaringan interkoneksi miliaran neuron, 86 milyar neuron diantaranya ada di otak manusia  Neuron ini mengirimkan informasi dalam bentuk impuls saraf  Bertanggung jawab untuk mengendalikan dan mengkoordinasikan semua fungsi tubuh  Sistem saraf manusia yang bersangkutan dengan menerima informasi dari dunia luar, pengolahan, dan kemudian menghasilkan respon yang tepat  Jaringan yang mengontrol dan mengkoordinasikan semua kegiatan tubuh, dengan mengirimkan pesan atau sinyal dari otak ke bagian-bagian berbeda dari tubuh dan sebaliknya
  • 5. STRUKTUR SEL Neuron pada manusia, terdiri dari sel tubuh, sebuah axon dan banyak dendrit. Axon : penghubung yang mengirimkan sinyal keluaran neuron menuju neuron lainnya Dendrit : Fasilitator yang menghubungkan neuron dengan axon dari neuron lainnya Nukleus : Inti sel pengolah informasi Sinapsis : Berfungsi sebagai persimpangan, di mana impuls atau informasi dapat mengalir dari satu neuron ke yang lain
  • 6. CARA KERJA SISTEM SARAF  Neuron sensorik mengirimkan rangsangan atau impuls yang diterima dari alat indera (mata, hidung, kulit) ke sistem saraf pusat (otak dan sumsum tulang belakang)  Interneuron berfungsi membaca impuls yang diterima dari neuron sensorik dan memutuskan respon yang akan dihasilkan  Otak memproses rangsangan tersebut dan mengirimkannya kembali ke bagian lain dari tubuh, memberitahu mereka bagaimana bereaksi terhadap jenis tertentu dari stimulus.  Motor neuron bertanggung jawab untuk menerima sinyal dari saraf otak dan tulang belakang, dan mengirim mereka ke bagian lain dari tubuh
  • 7. CARA KERJA NEURON Cara kerja dari neuron adalah menggabungkan pengaruh dari semua masukan dan mempertimbangkan apakah pengaruh dari masukan tadi dapat mencapai threshold yang telah ditetapkan atau tidak. Jika nilai threshold tadi tercapai, maka neuron akan memproduksi keluaran dalam bentuk suatu pulsa tertentu yang diproses dari sel hingga dikeluarkan melalui axon. Jika hal ini terjadi, maka neuron sedang dalam keadaan aktif.
  • 8. ARTIFICIAL NEURAL NETWORK Artificial neural network (Neural Network) adalah sebuah sistem untuk pemrosesan informasi dengan “meniru” cara kerja sistem saraf biologis
  • 9. NEURON PADA ARTIFICIAL NEURAL NETWORK  Tiap penghubung diasosiasikan dengan sebuah nilai bobot (w). Seperti pada sebuah sinapsis, nilai bobot menentukan derajat pengaruh dari sebuah neuron ke neuron yang lainnya. Pengaruh dari sebuah neuron ke neuron yang lainnya merupakan hasil kali dari nilai keluaran dari neuron-neuron yang masuk ke neuron (x) dengan nilai bobot (w) yang menghubungkan neuron-neuron tadi.  Tiap neuron dikombinasikan dengan sebuah fungsi aktivasi yang berfungsi sebagai penghubung dari penjumlahan semua nilai masukan dengan nilai keluarannya. Keluaran dari neuron inilah yang nantinya akan menentukan apakah sebuah neuron itu aktif ataukah tidak.
  • 11. ALVINN  Prototype ANN dikembangkan tahun 1993  Sistem kemudi otomatis kendaraan dengan kecepatan normal di jalan raya  ANN melakukan pembelajaran selama 5 menit untuk mengetahui bagaimana manusia mengendarai kendaraan  Alvinn berhasil menjalankan kendaraan dengan kecepatan 70mph sejauh 90 mil di jalan raya (sisi kiri jalan dengan lalu lintas jalan normal)
  • 12. ALVINN  Input data berasal dari kamera dengan sensor sebanyak 960 berukuran 30x32 pixel  Data diterima oleh 4 unit hidden layer  Output dari hidden layer diterima oleh 30 unit output layer yang menunjukkan seberapa banyak kemudi harus diputar Bobot dari masing-masing unit
  • 14. PROBLEM YANG BISA DISELESAIKAN DENGAN NEURAL NETWORK  Data pelatihan terlalu banyak noisy  Data yang kompleks  Penggunaan representasi simbolik, misalnya decision tree
  • 15. KARAKTERSITIK PROBLEM NEURAL NETWORK Neural network bisa menyelesaikan problem yang mempunyai karakteristik :  Instance direpresentasikan dalam pasangan attribute-value yang banyak  Target output bisa bernilai diskrit, real, atau vector(diskrit/real)  Penggunaan representasi simbolik, misalnya decision tree  Data training bisa mengandung error  Tidak ada batasan waktu pelatihan  Dibutuhkannya evaluasi yang cepat terhadap proses pembelajaran  Tidak mementingkan kemampuan manusia untuk mengerti proses pembelajaran
  • 16. PENGGUNAAN NEURAL NETWORK  Pemrosesan Sinyal  Sistem kendali  Pengenalan Pola  Kedokteran  Sintesa dan Pengenalan suara  Bisnis
  • 19. PENGENALAN POLA Pengenalan Huruf Pengenalan gambar
  • 21. SINTESA DAN PENGENALAN SUARA  Sintesa suara  Pengenalan suara
  • 24. STRUKTUR ARTIFICIAL NEURAL NETWORK Multilayer feedfoward Single layer organized terhubung penuh feature map Two layer feedfoward
  • 25. PERCEPTRON  Arsitektur sederhana dalam jaringan syaraf tiruan terdiri dari satu layer input unit (yang jumlah neuronnya sesuai dengan banyaknya jumlah komponen dari data yang ingin dikenali) dan satu output unit
  • 27. PEMBELAJARAN PERCEPTRON  Pembelajaran dengan perceptron memiliki asumsi bahwa prosedur pembelajaran terbukti untuk mengarahkan bobot menjadi konvergen. Perbedaan mendasar dengan Hebb net adalah pada perceptron terdapat error pada input pattern yang dilatihkan, maka bobot akan berubah sesuai dengan formula w i (new) = w i (old) + tx i  dan jika tidak terdapat error maka nilai bobot tidak akan berubah, atau dengan kata lain bahwa bobot hanya berubah mengikuti kondisi tertentu.
  • 28. PEMBELAJARAN PERCEPTRON Algoritma Langkah 0 Inisialisasi semua bobot dan bias Untuk kemudahan, set bobot dan bias = 0 Set learning rate  ( 0   1) Untuk kemudahan, set  =1 Langkah 1 selama kondisi stop tidak terpenuhi, lakukan langkah 2 – 6 Langkah 2 untuk setiap pasangan vektor input dan target output , s : t, lakukan langkah 3 – 5 Langkah 3 Set aktivasi input : x i = s i , Langkah 4 Hitung output : y_in = b + i x i w i
  • 29. PEMBELAJARAN PERCEPTRON Algoritma y = 1 jika y_in >  0 jika -   y_in   -1 jika y_in <  Langkah 5 update nilai bobot dan bias jika terjadi error If y  t w i (new) = w i (old) + tx i b (new) = b (old) + t else w i (new) = w i (old) b (new) = b (old) Langkah 6 Tes kondisi stop Jika tidak ada bobot yang berubah pada step 2, maka stop, selain itu lanjutkan
  • 30. FUNGSI AKTIVASI Melakukan transformasi input neuron menjadi output # sign function theta <- 0.5 yin <- 0.6 y <- 0 if (yin > theta) { y <- 1 } if (yin < -theta) { y <- -1 } # step function theta <- 0.5 yin <- 2 if (yin > theta) { y <- 1 } else { y <- -1 } # sigmoid function yin <- 2 exp_value <- exp(-yin) y <- 1 / (1 + exp_value) print (sprintf ("yin=%g, y=%g", yin, y))
  • 33. EXAMPLE 1 Bagaimana memisahkan dua kelompok tsb? X1 X2 1 Target 1 1 1 1 1 0 1 -1 0 1 1 -1 0 0 1 -1 x1 x2 Decision boundary w1 x1 + w2 x2 + b = 0 W X + b = 0
  • 34. EXAMPLE 1 Bagaimana memisahkan dua kelompok tsb ? Berapa nilai w1, w2, w3 agar diperoleh decision boundary yang optimal ? x1 x2 Decision boundary w1 X1 + w2 X2 + b = 0 w1 X1 + w2 X2 + b >= 0 w1 X1 + w2 X2 + b < 0 W X + b = 0
  • 35. EXAMPLE 1 Berapa nilai w1, w2, w3 agar diperoleh decision boundary yang optimal ? Boundary decision : f(x1, x2) x1 x2 Decision boundary w1 X1 + w2 X2 + b = 0 w1 X1 + w2 X2 + b >= 0 w1 X1 + w2 X2 + b < 0 1 if w1 X1 + w2 X2 + b >= 0 f(x1, x2) = -1 if w1 X1 + w2 X2 + b < 0
  • 36. EXAMPLE 1 Berapa nilai w1, w2, w3 agar diperoleh decision boundary yang optimal ? 1 if w1 X1 + w2 X2 + b >= 0 f(x1, x2) = -1 if w1 X1 + w2 X2 + b < 0  Step 0 : Inisialisasi bobot (w) dan bias (b) Set learning rate  Step 1 : jalankan step 2-6 selama kondisi false  Step 2 : Training untuk setiap record  Step 3 : set aktifasi input  Step 4 : Hitung respon output  Step 5 : Update bobot dan bias  Step 6 : Test kondisi (ada perubahan nilai bobot)
  • 37. EXAMPLE 1 Threshold = 0.8 Inputs Weight Weight ed Sum Output produce d Output Target Action 1 1 1 50% 1.5 1 1 None 1 0 1 50% 1 1 -1 Decrease 0 1 1 50% 1 1 -1 Decrease 0 0 1 50% 0.5 -1 -1 None Inputs Weight Weight ed Sum Output produced Actual Output Action 1 1 1 50% 1.5 1 1 None 1 0 1 40% 0.8 -1 -1 None 0 1 1 40% 0.8 -1 -1 None 0 0 1 50% 0.5 -1 -1 None
  • 38. EXAMPLE 2 A perceptron is an artificial neuron similar to a single biological neuron. It takes a set of weighted inputs, sums the inputs and compares the result with a threshold value. If the result is above the threshold value, the perceptron fires, otherwise it does not. When a perceptron fires, the output is 1: when it does not fire, the output is zero. Sebuah perceptron Wi Xi + b = 0
  • 39. EXAMPLE 2 Assume a case study with three inputs and one output. There are already four examples with known inputs and outputs This set of inputs is used to train a perceptron with all equal weights (w1 = w2 = w3).  The threshold is set to 0.8. The original weight for all inputs is 0.5 The weights remain the
  • 40. EXAMPLE 2 The weights are increased by 10% if the output produced is less than the output data: the weights are decreased by 10% if the output produced is greater than the output data. Inputs Weight Action 1 0 0 50% 0.5 0 0 None 0 0 1 50% 0.5 0 0 None 1 0 1 50% 1 1 0 Decrease 1 1 1 50% 1.5 1 1 None Weighted Sum Output produced Actual Output Inputs Weight Action 1 0 0 50% 0.5 0 0 None 0 0 1 50% 0.5 0 0 None 1 0 1 40% 0.8 0 0 None 1 1 1 50% 1.5 1 1 None Weighted Sum Output produced Actual Output
  • 41. ALGORITMA  Step 0 : Inisialisasi bobot (w) dan bias (b) Set learning rate  Step 1 : jalankan step 2-6 selama kondisi false  Step 2 : Training untuk setiap record  Step 3 : set aktifasi input  Step 4 : Hitung respon output  Step 5 : Update bobot dan bias  Step 6 : Test kondisi (ada perubahan nilai bobot) ) 1 0 (   
  • 42. FORMULA Respon Output Update bobot dan bias                   in y jika y_in jika in y jika y w x b in y i i i _ 1 0 _ 1 _ ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( lama b baru b lama w baru w t y jika t lama b baru b tx lama w baru w t y jika i i i i i          
  • 43. ITERASI Untuk penyederhanaan, w=0, b=0, 1,   0 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w2 b) (0 0 0) (1 1 1) 1
  • 44. ITERASI Epoch 1 baris 1 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w2 b) (0 0 0) (1 1 1) 0 0 1 (1 1 1) (1 1 1) Net = b + (x1*w1+x2*w2) Net = 0 + (1*0+1*0) Net = 0 1 jika Net >0 Out = 0 jika Net =0 -1 jika Net<0 dW1 = TX1= 1*1*1 = 1 dW2 = TX2= 1*1*1 = 1 dW3 = TX3= 1*1*1 = 1 W1 = W1+dW1 = 0+1 = 1 W2 = W2+dW2 = 0+1 = 1 W3 = W3+dW3 = 0+1 = 1
  • 45. ITERASI Epoch 1 baris 2 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w 2 b) (1 1 1) (1 0 1) 2 1 -1 (-1 0 -1) (0 1 0) Net = 1 + (x1*w1+x2*w2) Net = 1 + (1*1+0*1) Net = 2 1 jika Net >0 Out = 0 jika Net =0 -1 jika Net<0 dW1 = TX1= 1*-1*1 = -1 dW2 = TX2= 1*-1*0 = 0 dW3 = TX3= 1*-1*1 = -1 W1 = W1+dW1 = 1-1 = 0 W2 = W2+dW2 = 1+0 = 1 W3 = W3+dW3 = 1-1 = 0
  • 46. ITERASI Epoch 1 baris 3 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w2 b) (0 1 0) (0 1 1) 1 1 -1 (0 -1 -1) (0 0 -1) Net = b + (x1*w1+x2*w2) Net = 0 + (0*0+1*1) Net = 1 1 jika Net >0 Out = 0 jika Net =0 -1 jika Net<0 dW1 = TX1= 1*-1*0 = 0 dW2 = TX2= 1*-1*1 = -1 dW3 = TX3= 1*-1*1 = -1 W1 = W1+dW1 = 0+0 = 0 W2 = W2+dW2 = 1-1 = 0 W3 = W3+dW3 = 0-1 = -1
  • 47. ITERASI Epoch 1 baris 4 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W 1 w2 b) (0 0 -1) (0 0 1) -1 -1 -1 (0 0 0) (0 0 -1) Net = b + (x1*w1+x2*w2) Net = -1 + (0*0+0*0) Net = -1 1 jika Net >0 Out = 0 jika Net =0 -1 jika Net<0 Karena out=target, maka tidak ada perubahan bobot W1 = W1+dW1 = 0+1 = 1 W2 = W2+dW2 = 0+1 = 1 W3 = W3+dW3 = 0+1 = 1
  • 48. ITERASI Epoch 1 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w 2 b) (1 1 1) 0 0 1 (1 1 1) (1 1 1) (1 0 1) 2 1 -1 (-1 0 -1) (0 1 0) (0 1 1) 1 1 -1 (0 -1 -1) (0 0 -1) (0 0 1) -1 -1 -1 (0 0 0) (0 0 -1)
  • 49. ITERASI Epoch 2 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w2 b) (1 1 1) -1 -1 1 (1 1 1) (1 1 0) (1 0 1) 1 1 -1 (-1 0 -1) (0 1 -1) (0 1 1) 0 0 -1 (0 -1 -1) (0 0 -2) (0 0 1) -2 -1 -1 0 0 0 (0 0 -2)
  • 50. ITERASI Epoch 3 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w2 b) (1 1 1) -2 -1 1 (1 1 1) (1 1 -1) (1 0 1) 0 0 -1 (-1 0 -1) (0 1 -2) (0 1 1) -1 -1 -1 (0 0 0) (0 1 -2) (0 0 1) -2 -1 -1 (0 0 0) (0 1 -2)
  • 51. ITERASI Epoch 4 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w2 b) (1 1 1) -1 -1 1 (1 1 1) (1 2 -1) (1 0 1) 0 0 -1 (-1 0 -1) (0 2 -2) (0 1 1) 0 0 -1 (0 -1 -1) (0 1 -3) (0 0 1) -3 -1 -1 (0 0 0) (0 1 -3)
  • 52. ITERASI Epoch 5 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W 1 w2 b) (1 1 1) -2 -1 1 (1 1 1) (1 2 -2) (1 0 1) -1 -1 -1 (0 0 0) (1 2 -2) (0 1 1) 0 0 -1 (0 -1 -1) (1 1 -3) (0 0 1) -3 -1 -1 (0 0 0) (1 1 -3)
  • 53. ITERASI Epoch 6 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w 2 b) (1 1 1) -1 -1 1 (1 1 1) (2 2 -2) (1 0 1) 0 0 -1 (-1 0 -1) (1 2 -3) (0 1 1) -1 -1 -1 (0 0 0) (1 2 -3) (0 0 1) -3 -1 -1 (0 0 0) (1 2 -3)
  • 54. ITERASI Epoch 7 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w 2 b) (1 1 1) 0 0 1 (1 1 1) (2 3 -2) (1 0 1) 0 0 -1 (-1 0 -1) (1 3 -3) (0 1 1) 0 0 -1 (0 -1 -1) (1 2 -4) (0 0 1) -4 -1 -1 (0 0 0) (1 2 -4)
  • 55. ITERASI Epoch 8 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w2 b) (1 1 1) -1 -1 1 (1 1 1) (2 3 -3) (1 0 1) -1 -1 -1 (0 0 0) (2 3 -3) (0 1 1) 0 0 -1 (0 -1 -1) (2 2 -4) (0 0 1) -4 -1 -1 (0 0 0) (2 2 -4)
  • 56. ITERASI Epoch 9 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w 2 b) (1 1 1) 0 0 1 (1 1 1) 3 3 -3 (1 0 1) 0 0 -1 (-1 0 -1) (2 3 -4) (0 1 1) -1 -1 -1 (0 0 0) (2 3 -4) (0 0 1) -4 -1 -1 (0 0 0) (2 3 -4)
  • 57. ITERASI Epoch 10 Input Net Out Targ et Weight Changes Weight (x1 x2 1) (W1 w 2 b) (1 1 1) 1 1 1 (0 0 0) (2 3 -4) (1 0 1) -2 -1 -1 (0 0 0) (2 3 -4) (0 1 1) -1 -1 -1 (0 0 0) (2 3 -4) (0 0 1) -4 -1 -1 (0 0 0) (2 3 -4)
  • 59. REFERENCES 1. Stuart Russell,Peter Norvig. 2009. Artificial Intelligence: A Modern Approach (3rd Edition) 2. Dan Klein, Pieter Abbeel. 2013. Courseware edX Artificial Intelligence University of California at Berkeley 3. D. Poole & A. Mackworth. 2010. Artificial Intelligence: Foundations of Computational Agents. Cambridge University Press 4. Tom M Michele, 1997, Machine Learning 5. Laurene Fausett, 1993, Fundamental of Neural Network : Architecture, Algorithm and Applications