BPN adalah metode pelatihan terawasi untuk jaringan saraf tiruan yang meminimalkan error output dengan mempropagasi kesalahan kembali ke layer sebelumnya untuk memperbarui bobotnya. Proses pelatihan BPN terdiri dari feedforward, backpropagation error, dan pembaruan bobot.
ALGORITMA-ALGORITMA PARALLEL RANDOM ACCESS MACHINE (PRAM = pea ram) Algoritma yang dibahas : 1. Parallel reduction 2. Prefix sums 3. List ranking 4. Pre-order tree traversal 5. Merging two sorted lists 6. Graph coloring Algoritma-algoritma PRAM memiliki 2 (dua) fase : 1. mengaktifkan sejumlah prosesor 2. prosesor yang sudah diaktifkan (pada fase 1), melaksanakan komputasi secara paralel Gambar 1. Untuk mengubah 1 prosesor yang aktif ke p prosesor dibutuhkan ⎡log p⎤ langkah Jumlah prosesor yang aktif merupakan lipat-2 (2n) dari prosesor tunggal atau logaritma dari basis 2. Instruksi meta untuk mengaktifkan prosesor yang digunakan (dalam fase 1) : spawn (<nama>) Instruksi meta untuk melakukan komputasi secara paralel (dalam fase 2) : for all <processor> do <statement> endfor Pohon biner menjadi paradigma yang penting dalam komputasi paralel. Pada beberapa algoritma ada yang menggunakan aliran data top-down (akar –daun). Contoh : broadcast akar mengalirkan (mengirimkan) data yang sama ke setiap daunnya divide-and-conquer pohon menggambarkan adanya perulangan sub divisi suatu masalah ke sub masalah yang lebih kecil. Algoritma lain yang mengalirkan data secara bottom-up (daun -akar) adalah operasi reduksi atau “fan-in”.
ALGORITMA-ALGORITMA PARALLEL RANDOM ACCESS MACHINE (PRAM = pea ram) Algoritma yang dibahas : 1. Parallel reduction 2. Prefix sums 3. List ranking 4. Pre-order tree traversal 5. Merging two sorted lists 6. Graph coloring Algoritma-algoritma PRAM memiliki 2 (dua) fase : 1. mengaktifkan sejumlah prosesor 2. prosesor yang sudah diaktifkan (pada fase 1), melaksanakan komputasi secara paralel Gambar 1. Untuk mengubah 1 prosesor yang aktif ke p prosesor dibutuhkan ⎡log p⎤ langkah Jumlah prosesor yang aktif merupakan lipat-2 (2n) dari prosesor tunggal atau logaritma dari basis 2. Instruksi meta untuk mengaktifkan prosesor yang digunakan (dalam fase 1) : spawn (<nama>) Instruksi meta untuk melakukan komputasi secara paralel (dalam fase 2) : for all <processor> do <statement> endfor Pohon biner menjadi paradigma yang penting dalam komputasi paralel. Pada beberapa algoritma ada yang menggunakan aliran data top-down (akar –daun). Contoh : broadcast akar mengalirkan (mengirimkan) data yang sama ke setiap daunnya divide-and-conquer pohon menggambarkan adanya perulangan sub divisi suatu masalah ke sub masalah yang lebih kecil. Algoritma lain yang mengalirkan data secara bottom-up (daun -akar) adalah operasi reduksi atau “fan-in”.
Makalah membahas tentang Kohohenen pada DAta mining
Clustering merupakan suatu proses untuk mengelompokkan kumpulan objek-objek fisik atau objek-objek abstrak ke dalam kelas-kelas objek yang similar (mirip). Cluster adalah kumpulan dari objek atau data yang mempunyai kemiripan satu dengan yang lain dalam cluster yang sama dan tidak mirip dengan objek dalam cluster yang berbeda. Secara prinsip cluster merupakan kumpulan dari objek data yang mempunyai kemiripan berdasarkan karakteristik tertentu (karakteristik disini bisa kombinasi dari atribut tertentu tergantung user) kemudian melakukan pengelompokan jika dianggap mirip. Suatu cluster dari objek data dapat diperlakukan secara kolektif sebagai satu group dalam berbagai aplikasi.
Terdapat beberapa algoritma yang digunakan didalam mengumpulkan atau mengelompokan suatu data sehingga didalam setiap object dalam satu kelompok data mirip akan tetapi tidak mirip dengan kelompok yang lainnya. Algoritma clustering yang meliputi K-Means, K-Medoids, DBSCAN dan lainnya yang digunakan didalam menyelesaikan permaslahan pengelompokan data
Kohonen adalah merupakan algoritma jaringan pcerdas dengan kategori pembelajaran secara kompetitif dan bersifat unsupervised. Sistem secara otomatis dapatmelakukan pengelompokan atau klasifikasi tanpamenggunakan pembelajaran dengan pasangan dataterlebih dahulu.Secara umum, pembaruan nilai bobot adalahberdasar nilai jarak terkecil dari bobot terhadap nilai datamasukan. Pembaruan dilakukan hanya pada bobot yang berhubungan dengan node yang terdekat
Kohonen adalah merupakan algoritma jaringan pcerdas dengan kategori pembelajaran secara kompetitif dan bersifat unsupervised. Sistem secara otomatis dapatmelakukan pengelompokan atau klasifikasi tanpamenggunakan pembelajaran dengan pasangan dataterlebih dahulu.Secara umum, pembaruan nilai bobot adalahberdasar nilai jarak terkecil dari bobot terhadap nilai datamasukan. Pembaruan dilakukan hanya pada bobot yang berhubungan dengan node yang terdekat
Kohonen adalah merupakan algoritma jaringan pcerdas dengan kategori pembelajaran secara kompetitif dan bersifat unsupervised. Sistem secara otomatis dapatmelakukan pengelompokan atau klasifikasi tanpamenggunakan pembelajaran dengan pasangan dataterlebih dahulu.Secara umum, pembaruan nilai bobot adalahberdasar nilai jarak terkecil dari bobot terhadap nilai datamasukan. Pembaruan dilakukan hanya pada bobot yang berhubungan dengan node yang terdekat
Kohonen adalah merupakan algoritma jaringan pcerdas dengan kategori pembelajaran secara kompetitif dan bersifat unsupervised. Sistem secara otomatis dapatmelakukan pengelompokan atau klasifikasi tanpamenggunakan pembelajaran dengan pasangan dataterlebih dahulu.Secara umum, pembaruan nilai bobot adalahberdasar nilai jarak terkecil dari bobot terhadap nilai datamasukan. Pembaruan dilakukan hanya pada bobot yang berhubungan dengan node yang terdekat
Kohonen adalah merupakan algoritma jaringan pcerdas dengan kategori pembelajaran secara kompetitif
Sebuah buku foto yang berjudul Lensa Kampung Ondel-Ondelferrydmn1999
Indonesia, negara kepulauan yang kaya akan keragaman budaya, suku, dan tradisi, memiliki Jakarta sebagai pusat kebudayaan yang dinamis dan unik. Salah satu kesenian tradisional yang ikonik dan identik dengan Jakarta adalah ondel-ondel, boneka raksasa yang biasanya tampil berpasangan, terdiri dari laki-laki dan perempuan. Ondel-ondel awalnya dianggap sebagai simbol budaya sakral dan memainkan peran penting dalam ritual budaya masyarakat Betawi untuk menolak bala atau nasib buruk. Namun, seiring dengan bergulirnya waktu dan perubahan zaman, makna sakral ondel-ondel perlahan memudar dan berubah menjadi sesuatu yang kurang bernilai. Kini, ondel-ondel lebih sering digunakan sebagai hiasan atau sebagai sarana untuk mencari penghasilan. Buku foto Lensa Kampung Ondel-Ondel berfokus pada Keluarga Mulyadi, yang menghadapi tantangan untuk menjaga tradisi pembuatan ondel-ondel warisan leluhur di tengah keterbatasan ekonomi yang ada. Melalui foto cerita, foto feature dan foto jurnalistik buku ini menggambarkan usaha Keluarga Mulyadi untuk menjaga tradisi pembuatan ondel-ondel sambil menghadapi dilema dalam mempertahankan makna budaya di tengah perubahan makna dan keterbatasan ekonomi keluarganya. Buku foto ini dapat menggambarkan tentang bagaimana keluarga tersebut berjuang untuk menjaga warisan budaya mereka di tengah arus modernisasi.
ppt profesionalisasi pendidikan Pai 9.pdfNur afiyah
Pembelajaran landasan pendidikan yang membahas tentang profesionalisasi pendidikan. Semoga dengan adanya materi ini dapat memudahkan kita untuk memahami dengan baik serta menambah pengetahuan kita tentang profesionalisasi pendidikan.
2. Arsitektur JaringanArsitektur Jaringan
Salah satu metode pelatihan terawasiSalah satu metode pelatihan terawasi
pada jaringan syaraf adalah metodepada jaringan syaraf adalah metode
Backpropagation, di mana ciri dariBackpropagation, di mana ciri dari
metode ini adalah meminimalkan errormetode ini adalah meminimalkan error
pada output yang dihasilkan olehpada output yang dihasilkan oleh
jaringan.jaringan.
Dalam metode Backpropagation,Dalam metode Backpropagation,
biasanya digunakan jaringanbiasanya digunakan jaringan
multilayer.multilayer.
4. Arsitektur JaringanArsitektur Jaringan
Pada gambar, unit input dilambangkanPada gambar, unit input dilambangkan
dengan X, hidden unit dilambangkandengan X, hidden unit dilambangkan
dengan Z, dan unit outputdengan Z, dan unit output
dilambangkan dengan Y.dilambangkan dengan Y.
Bobot antara X dan Z dilambangkanBobot antara X dan Z dilambangkan
dengan v sedangkan bobot antara Zdengan v sedangkan bobot antara Z
dan Y dilambangkan dengan w.dan Y dilambangkan dengan w.
5. Proses belajar & PengujianProses belajar & Pengujian
Penggunaan Back PropagationPenggunaan Back Propagation
Network terdiri dari 2 tahap:Network terdiri dari 2 tahap:
– Tahap belajar atau pelatihan, di manaTahap belajar atau pelatihan, di mana
pada tahap ini pada BPN diberikanpada tahap ini pada BPN diberikan
sejumlah data pelatihan dan targetsejumlah data pelatihan dan target
– Tahap pengujian atau penggunaan,Tahap pengujian atau penggunaan,
pengujian dan penggunaan dilakukanpengujian dan penggunaan dilakukan
setelah BPN selesai belajarsetelah BPN selesai belajar
6. Tahap Belajar atau PelatihanTahap Belajar atau Pelatihan
Pada intinya, pelatihan denganPada intinya, pelatihan dengan
metode backpropagation terdiri darimetode backpropagation terdiri dari
tiga langkah, yaitu:tiga langkah, yaitu:
– Data dimasukkan ke input jaringanData dimasukkan ke input jaringan
(feedforward)(feedforward)
– Perhitungan dan propagasi balik dariPerhitungan dan propagasi balik dari
error yang bersangkutanerror yang bersangkutan
– Pembaharuan (adjustment) bobot danPembaharuan (adjustment) bobot dan
bias.bias.
7. Tahap Belajar atau PelatihanTahap Belajar atau Pelatihan
Saat umpan maju (feedforward), setiap unitSaat umpan maju (feedforward), setiap unit
input (Xinput (Xii) akan menerima sinyal input dan) akan menerima sinyal input dan
akan menyebarkan sinyal tersebut pada tiapakan menyebarkan sinyal tersebut pada tiap
hidden unit (Zhidden unit (Zjj).).
Setiap hidden unit kemudian akanSetiap hidden unit kemudian akan
menghitung aktivasinya dan mengirim sinyalmenghitung aktivasinya dan mengirim sinyal
(z(zjj) ke tiap unit output.) ke tiap unit output.
Kemudian setiap unit output (YKemudian setiap unit output (Ykk) juga akan) juga akan
menghitung aktivasinya (ymenghitung aktivasinya (ykk) untuk) untuk
menghasilkan respons terhadap input yangmenghasilkan respons terhadap input yang
diberikan jaringan.diberikan jaringan.
8. Tahap Belajar atau PelatihanTahap Belajar atau Pelatihan
Saat proses pelatihan (training), setiap unit outputSaat proses pelatihan (training), setiap unit output
membandingkan aktivasinya (ymembandingkan aktivasinya (ykk) dengan nilai target) dengan nilai target
(t(tkk) untuk menentukan besarnya error.) untuk menentukan besarnya error.
Berdasarkan error ini, dihitung faktorBerdasarkan error ini, dihitung faktor δδkk, di mana, di mana
faktor ini digunakan untuk mendistribusikan errorfaktor ini digunakan untuk mendistribusikan error
dari output ke layer sebelumnya.dari output ke layer sebelumnya.
Dengan cara yang sama, faktorDengan cara yang sama, faktor δδjj juga dihitungjuga dihitung
pada hidden unit Zpada hidden unit Zjj, di mana faktor ini digunakan, di mana faktor ini digunakan
untuk memperbaharui bobot antara hidden layeruntuk memperbaharui bobot antara hidden layer
dan input layer.dan input layer.
Setelah semua faktorSetelah semua faktor δδ ditentukan, bobot untukditentukan, bobot untuk
semua layer diperbaharui.semua layer diperbaharui.
9. Proses belajar secara detailProses belajar secara detail
Step 0Step 0 : Inisialisasi bobot dan bias: Inisialisasi bobot dan bias
– Baik bobot maupun bias dapat disetBaik bobot maupun bias dapat diset
dengan sembarang angka (acak) dandengan sembarang angka (acak) dan
biasanya angka di sekitar 0 dan 1 atau -1biasanya angka di sekitar 0 dan 1 atau -1
(bias positif atau negatif)(bias positif atau negatif)
Step 1Step 1 :Jika stopping condition masih:Jika stopping condition masih
belum terpenuhi, jalankan step 2-9.belum terpenuhi, jalankan step 2-9.
Step 2Step 2 :Untuk setiap data training,:Untuk setiap data training,
lakukan step 3-8.lakukan step 3-8.
10. Proses belajar secara detailProses belajar secara detail
Umpan maju (feedforward)Umpan maju (feedforward)
Step 3Step 3 : Setiap unit input (X: Setiap unit input (Xii,i=1,…,n) menerima,i=1,…,n) menerima
sinyal input xsinyal input xii dan menyebarkan sinyal tersebut padadan menyebarkan sinyal tersebut pada
seluruh unit pada hidden layer. Perlu diketahui bahwaseluruh unit pada hidden layer. Perlu diketahui bahwa
input xinput xii yang dipakai di sini adalah input training datayang dipakai di sini adalah input training data
yang sudah diskalakan.yang sudah diskalakan.
Step 4Step 4 : Setiap hidden unit (Z: Setiap hidden unit (Zjj,j=1,…,p) akan,j=1,…,p) akan
menjumlahkan sinyal-sinyal input yang sudahmenjumlahkan sinyal-sinyal input yang sudah
berbobot, termasuk biasnyaberbobot, termasuk biasnya
11. Proses belajar secara detailProses belajar secara detail
dan memakai fungsi aktivasi yang telahdan memakai fungsi aktivasi yang telah
ditentukan untuk menghitung sinyal outputditentukan untuk menghitung sinyal output
dari hidden unit yang bersangkutan,dari hidden unit yang bersangkutan,
lalu mengirim sinyal output ini ke seluruhlalu mengirim sinyal output ini ke seluruh
unit pada unit outputunit pada unit output
12. Proses belajar secara detailProses belajar secara detail
Step 5Step 5 : Setiap unit output (Y: Setiap unit output (Ykk,k=1,,k=1,
…,m) akan menjumlahkan sinyal-…,m) akan menjumlahkan sinyal-
sinyal input yang sudah berbobot,sinyal input yang sudah berbobot,
termasuk biasnya,termasuk biasnya,
13. Proses belajar secara detailProses belajar secara detail
dan memakai fungsi aktivasi yangdan memakai fungsi aktivasi yang
telah ditentukan untuk menghitungtelah ditentukan untuk menghitung
sinyal output dari unit output yangsinyal output dari unit output yang
bersangkutan:bersangkutan:
14. Proses belajar secara detailProses belajar secara detail
Propagasi balik error (backpropagation of error)Propagasi balik error (backpropagation of error)
Step 6Step 6 : Setiap unit output (Y: Setiap unit output (Ykk,k=1,…,m),k=1,…,m)
menerima suatu target (output yangmenerima suatu target (output yang
diharapkan) yang akan dibandingkan dengandiharapkan) yang akan dibandingkan dengan
output yang dihasilkan.output yang dihasilkan.
15. Proses belajar secara detailProses belajar secara detail
FaktorFaktor δδkk ini digunakan untuk menghitungini digunakan untuk menghitung
koreksi error (koreksi error ( ∆∆wwjkjk) yang nantinya akan) yang nantinya akan
dipakai untuk memperbaharui wdipakai untuk memperbaharui wjkjk, di mana:, di mana:
∆∆wwjkjk== αδαδkkzzjj
Selain itu juga dihitung koreksi biasSelain itu juga dihitung koreksi bias ∆∆ww0k0k
yang nantinya akan dipakai untukyang nantinya akan dipakai untuk
memperbaharui wmemperbaharui w0k0k, di mana:, di mana:
∆∆ww0k0k== αδαδkk
FaktorFaktor δδkk ini kemudian dikirimkan ke layer diini kemudian dikirimkan ke layer di
depannya.depannya.
16. Proses belajar secara detailProses belajar secara detail
Step 7Step 7 : Setiap hidden unit (Z: Setiap hidden unit (Zjj,j=1,,j=1,
…,p) menjumlah input delta (yang…,p) menjumlah input delta (yang
dikirim dari layer pada step 6) yangdikirim dari layer pada step 6) yang
sudah berbobot.sudah berbobot.
17. Proses belajar secara detailProses belajar secara detail
Kemudian hasilnya dikalikan denganKemudian hasilnya dikalikan dengan
turunan dari fungsi aktivasi yangturunan dari fungsi aktivasi yang
digunakan jaringan untukdigunakan jaringan untuk
menghasilkan faktor koreksi errormenghasilkan faktor koreksi error δδjj, di, di
mana:mana:
δδjj== δδ_in_injj f’(z_inf’(z_injj))
18. Proses belajar secara detailProses belajar secara detail
FaktorFaktor δδjj ini digunakan untuk menghitungini digunakan untuk menghitung
koreksi error (koreksi error (∆∆vvijij) yang nantinya akan) yang nantinya akan
dipakai untuk memperbaharui vdipakai untuk memperbaharui vijij, di mana:, di mana:
∆∆vvijij==αδαδjjxxii
Selain itu juga dihitung koreksi biasSelain itu juga dihitung koreksi bias ∆∆vv0j0j
yang nantinya akan dipakai untukyang nantinya akan dipakai untuk
memperbaharui vmemperbaharui v0j0j, di mana:, di mana:
∆∆vv0j0j==αδαδjj
19. Proses belajar secara detailProses belajar secara detail
Pembaharuan bobot dan bias:Pembaharuan bobot dan bias:
Step 8Step 8 ::
– Setiap unit output (YSetiap unit output (Ykk,k=1,…,m) akan,k=1,…,m) akan
memperbaharui bias dan bobotnya denganmemperbaharui bias dan bobotnya dengan
setiap hidden unit.setiap hidden unit.
wwjkjk(baru)=w(baru)=wjkjk(lama) +(lama) + ∆∆wwjkjk
– Demikian pula untuk setiap hidden unit akanDemikian pula untuk setiap hidden unit akan
memperbaharui bias dan bobotnya denganmemperbaharui bias dan bobotnya dengan
setiap unit input.setiap unit input.
vvijij(baru)=v(baru)=vijij(lama) +(lama) + ∆∆vvijij
20. Proses belajar secara detailProses belajar secara detail
Step 9Step 9 : Memeriksa stopping: Memeriksa stopping
conditioncondition
– Jika stop condition telah terpenuhi, makaJika stop condition telah terpenuhi, maka
pelatihan jaringan dapat dihentikan.pelatihan jaringan dapat dihentikan.
21. Stopping ConditionStopping Condition
Untuk menentukan stopping conditionUntuk menentukan stopping condition
terdapat dua cara yang biasa dipakai, yaitu:terdapat dua cara yang biasa dipakai, yaitu:
– Membatasi iterasi yang ingin dilakukan.Membatasi iterasi yang ingin dilakukan.
Misalnya jaringan akan dilatih sampai iterasi yang ke-Misalnya jaringan akan dilatih sampai iterasi yang ke-
500.500.
Yang dimaksud dengan satu iterasi adalah perulanganYang dimaksud dengan satu iterasi adalah perulangan
step 3 sampai step 8 untuk semua training data yangstep 3 sampai step 8 untuk semua training data yang
ada.ada.
– Membatasi error.Membatasi error.
Misalnya menentukan besar Mean Square Error antaraMisalnya menentukan besar Mean Square Error antara
output yang dikehendaki dan output yang dihasilkan olehoutput yang dikehendaki dan output yang dihasilkan oleh
jaringan.jaringan.
22. Mean Square ErrorMean Square Error
Jika terdapat sebanyak m trainingJika terdapat sebanyak m training
data, maka untuk menghitung Meandata, maka untuk menghitung Mean
Square Error digunakan persamaanSquare Error digunakan persamaan
berikut:berikut:
• MSE=0,5 x {(tMSE=0,5 x {(tk1k1-y-yk1k1))22
+ (t+ (tk2k2-y-yk2k2))22
+…+ (t+…+ (tkmkm-y-ykmkm))22
}}
23. Tahap pengujian &Tahap pengujian &
PenggunaanPenggunaan
Setelah pelatihan selesai, BPN dianggapSetelah pelatihan selesai, BPN dianggap
telah pintar sehingga apabila jaringan diberitelah pintar sehingga apabila jaringan diberi
input tertentu, jaringan akan menghasilkaninput tertentu, jaringan akan menghasilkan
output seperti yang diharapkan.output seperti yang diharapkan.
Cara mendapatkan output tersebut adalahCara mendapatkan output tersebut adalah
dengan mengimplementasikan metodedengan mengimplementasikan metode
backpropagation yang sama seperti prosesbackpropagation yang sama seperti proses
belajar, tetapi hanya pada bagian umpanbelajar, tetapi hanya pada bagian umpan
majunya saja, yaitu dengan langkah-majunya saja, yaitu dengan langkah-
langkah sebagai berikut:langkah sebagai berikut:
24. Penghitungan output jaringanPenghitungan output jaringan
Step 0: Inisialisasi bobot sesuai denganStep 0: Inisialisasi bobot sesuai dengan
bobot yang telah dihasilkan pada prosesbobot yang telah dihasilkan pada proses
pelatihan di atas.pelatihan di atas.
Step 1: Untuk setiap input, lakukan step 2-4.Step 1: Untuk setiap input, lakukan step 2-4.
Step 2: Untuk setiap input i=1,…,n skalakanStep 2: Untuk setiap input i=1,…,n skalakan
bilangan dalam range fungsi aktivasi sepertibilangan dalam range fungsi aktivasi seperti
yang dilakukan pada proses pelatihan diyang dilakukan pada proses pelatihan di
atas.atas.
27. Penghitungan output jaringanPenghitungan output jaringan
Variabel yVariabel ykk adalah output yang masihadalah output yang masih
dalam skala menurut range fungsidalam skala menurut range fungsi
aktivasi.aktivasi.
Untuk mendapatkan nilai output yangUntuk mendapatkan nilai output yang
sesungguhnya, ysesungguhnya, ykk harus dikembalikanharus dikembalikan
seperti semula.seperti semula.
28. Contoh aplikasi BPNContoh aplikasi BPN
Misalkan, jaringan terdiri dari 2 unit input, 1Misalkan, jaringan terdiri dari 2 unit input, 1
hidden unit (dengan 1 hidden layer), dan 1 unithidden unit (dengan 1 hidden layer), dan 1 unit
output.output.
Jaringan akan dilatih untuk memecahkan fungsiJaringan akan dilatih untuk memecahkan fungsi
XOR.XOR.
Fungsi aktivasi yang digunakan adalah sigmoidFungsi aktivasi yang digunakan adalah sigmoid
biner dengan nilai learning rate (biner dengan nilai learning rate (αα) = 0,01 dan) = 0,01 dan
nilainilai σσ =1.=1.
29. Arsitektur jaringan yang akan dilatihArsitektur jaringan yang akan dilatih
adalah sebagai berikut:adalah sebagai berikut:
30. Training data yang digunakan terdiriTraining data yang digunakan terdiri
dari 4 pasang input-output, yaitu:dari 4 pasang input-output, yaitu:
31. Sebelum pelatihan, harus ditentukanSebelum pelatihan, harus ditentukan
terlebih dahulu stopping conditionnya.terlebih dahulu stopping conditionnya.
Misalnya dihentikan jika error telahMisalnya dihentikan jika error telah
mencapai 0,41.mencapai 0,41.
32. Langkah-langkah pelatihanLangkah-langkah pelatihan
Step 0: Misalnya inisialisasi bobot danStep 0: Misalnya inisialisasi bobot dan
bias adalah:bias adalah:
vv0101=1,718946=1,718946
vv1111=-1,263178=-1,263178
vv2121=-1,083092=-1,083092
ww0101=-0,541180=-0,541180
ww1111=0,543960=0,543960
33. Step 1: Dengan bobot di atas, tentukan error untukStep 1: Dengan bobot di atas, tentukan error untuk
training data secara keseluruhan dengan Mean Squaretraining data secara keseluruhan dengan Mean Square
Error:Error:
• z_inz_in1111=1,718946+{(0 x -1,263178)+(0 x-1,083092)}=1,718946=1,718946+{(0 x -1,263178)+(0 x-1,083092)}=1,718946
• zz1111=f(z_in=f(z_in1111)=0,847993)=0,847993
• z_inz_in1212=1,718946+{(0 x-1,263178)+(1 x -1,083092)}=0,635854=1,718946+{(0 x-1,263178)+(1 x -1,083092)}=0,635854
• zz1212=f(z_in=f(z_in1212)=0,653816)=0,653816
• z_inz_in1313=1,718946+{(1 x- 1,263178)+(0 x- 1,083092)}=0,455768=1,718946+{(1 x- 1,263178)+(0 x- 1,083092)}=0,455768
• zz1313=f(z_in=f(z_in1313)=0,612009)=0,612009
• z_inz_in1414=1,718946+{(1 x -1,263178)+(1 x -1,083092)=-0,627324=1,718946+{(1 x -1,263178)+(1 x -1,083092)=-0,627324
• zz1414=f(z_in=f(z_in1414)=0,348118)=0,348118
di mana indeks zdi mana indeks zjnjn berarti hidden unit ke-j dan training data ke-berarti hidden unit ke-j dan training data ke-
n.n.
34. y_iny_in1111=-0,541180+(0,847993 x 0,543960)=0,079906=-0,541180+(0,847993 x 0,543960)=0,079906
yy1111=f(y_in=f(y_in1111)=0,480034)=0,480034
y_iny_in1212=-0,541180+(0,653816 x 0,543960)=-0,185530=-0,541180+(0,653816 x 0,543960)=-0,185530
yy1212=f(y_in=f(y_in1212)=0,453750)=0,453750
y_iny_in1313=-0,541180+(0,612009 x 0,543960)=0,208271=-0,541180+(0,612009 x 0,543960)=0,208271
yy1313=f(y_in=f(y_in1313)=0,448119)=0,448119
y_iny_in1414=-0,541180+(0,348118 x 0,543960)=-0,351818=-0,541180+(0,348118 x 0,543960)=-0,351818
yy1414=f(y_in=f(y_in1414)=0,412941)=0,412941
Maka E=0,5 x {(0-0,480034)Maka E=0,5 x {(0-0,480034)22
+ (1-0,453750)+ (1-0,453750)22
) + (1-) + (1-
0,448119)0,448119)22
+ (0-0,412941)+ (0-0,412941)22
}=0,501957}=0,501957
35. Step2. Karena error masih lebih besar dari 0,41 makaStep2. Karena error masih lebih besar dari 0,41 maka
step 3-8 dijalankan.step 3-8 dijalankan.
Step 3. x1=0; x2=0 (iterasi pertama, training dataStep 3. x1=0; x2=0 (iterasi pertama, training data
pertama)pertama)
Step 4.Step 4.
z_inz_in11=1,718946+{(0x-1,263126)+(0x-1,083049)}=1,718946.=1,718946+{(0x-1,263126)+(0x-1,083049)}=1,718946.
zz11=f(z_in=f(z_in11)=0,847993)=0,847993
Step 5.Step 5.
y_iny_in1111=-0,541180+(0,847993x0,543960)=0,079906=-0,541180+(0,847993x0,543960)=0,079906
yy1111=f(y_in=f(y_in1111)=0,480034)=0,480034
Step 6.Step 6.
δδ11=(0-0,480034)f ’(0,079906)=-0,119817=(0-0,480034)f ’(0,079906)=-0,119817
∆∆ww1111=0,01x-0,119817x0,847993=-0,001016=0,01x-0,119817x0,847993=-0,001016
∆∆ww0101=0,01x-0,119817=-0,00119817=0,01x-0,119817=-0,00119817
36. Step 7.Step 7.
δδ_in_in11=-0,00119817x0,543960=-0,00065176=-0,00119817x0,543960=-0,00065176
δδ11=-0,00065176xf’(1,718946)=-0,00008401=-0,00065176xf’(1,718946)=-0,00008401
∆∆vv1111=0,01x-0,00008401x0=0=0,01x-0,00008401x0=0
∆∆vv2121=0,01x-0,00008401x0=0=0,01x-0,00008401x0=0
∆∆vv0101=0,01x-0,00008401=-0,0000008401=0,01x-0,00008401=-0,0000008401
Step 8.Step 8.
ww0101(baru)=-0,541180+(-0,00119817)=-0,542378(baru)=-0,541180+(-0,00119817)=-0,542378
ww1111(baru)=0,543960+(-0,001016)=0,542944(baru)=0,543960+(-0,001016)=0,542944
vv0101(baru)=1,718946+(-0,0000008401)=1,718862(baru)=1,718946+(-0,0000008401)=1,718862
vv1111(baru)=-1,263178+0=-1,263178(baru)=-1,263178+0=-1,263178
vv2121(baru)=-1,083092+0=-1,083092(baru)=-1,083092+0=-1,083092
Saat ini vSaat ini v1111 dan vdan v1212 masih belum berubah karena kedua inputnyamasih belum berubah karena kedua inputnya
=0. Nilai v=0. Nilai v0101 dan vdan v0202 baru berubah pada iterasi pertama untukbaru berubah pada iterasi pertama untuk
training data yang keduatraining data yang kedua
37. Setelah step 3-8 untuk training data pertamaSetelah step 3-8 untuk training data pertama
dijalankan, selanjutnya kembali lagi ke step 3dijalankan, selanjutnya kembali lagi ke step 3
untuk training data yang kedua (xuntuk training data yang kedua (x11=0 dan x=0 dan x22=1).=1).
Langkah yang sama dilakukan sampai padaLangkah yang sama dilakukan sampai pada
training data yang keempat.training data yang keempat.
Bobot yang dihasilkan pada iterasi pertama,Bobot yang dihasilkan pada iterasi pertama,
training data ke-2,3, dan 4 adalah:training data ke-2,3, dan 4 adalah:
38. Training data ke-2:Training data ke-2:
ww0101=-0,541023=-0,541023
ww1111=0,543830=0,543830
vv0101=1,718862=1,718862
vv1111=-1,263178=-1,263178
vv2121=-1,083092=-1,083092
Training data ke-3:Training data ke-3:
ww0101=-0,539659=-0,539659
ww1111=0,544665=0,544665
vv0101=1,719205=1,719205
vv1111=-1,263002=-1,263002
vv2121=-1,082925=-1,082925
Training data ke-4:Training data ke-4:
ww0101=-0,540661=-0,540661
ww1111=0,544316=0,544316
vv0101=1,719081=1,719081
vv1111=-1,263126=-1,263126
vv2121=-1,083049=-1,083049
39. Setelah sampai pada training data ke-4, maka iterasiSetelah sampai pada training data ke-4, maka iterasi
pertama selesai.pertama selesai.
Berikutnya, pelatihan sampai pada step9, yaituBerikutnya, pelatihan sampai pada step9, yaitu
memeriksa stopping condition dan kembali pada step 2.memeriksa stopping condition dan kembali pada step 2.
Demikian seterusnya sampai stopping condition yangDemikian seterusnya sampai stopping condition yang
ditentukan terpenuhi.ditentukan terpenuhi.
Setelah pelatihan selesai, bobot yang didapatkan adalah:Setelah pelatihan selesai, bobot yang didapatkan adalah:
vv0101=12,719601=12,719601
vv1111=-6,779127=-6,779127
vv2121=-6,779127=-6,779127
ww0101=-5,018457=-5,018457
ww1111=5,719889=5,719889
40. Jika ada input baru, misalnya xJika ada input baru, misalnya x11=0,2 dan x=0,2 dan x22=0,9 maka outputnya=0,9 maka outputnya
dapat dicari dengan langkah umpan maju sebagai berikut:dapat dicari dengan langkah umpan maju sebagai berikut:
Step 0. Bobot yang dipakai adalah bobot hasil pelatihan di atas.Step 0. Bobot yang dipakai adalah bobot hasil pelatihan di atas.
Step 1. Perhitungan dilakukan pada step 2-4Step 1. Perhitungan dilakukan pada step 2-4
Step 2. Dalam contoh ini, bilangan telah berada dalam interval 0Step 2. Dalam contoh ini, bilangan telah berada dalam interval 0
sampai dengan 1, jadi tidak perlu diskalakan lagi.sampai dengan 1, jadi tidak perlu diskalakan lagi.
Step 3.Step 3.
z_inz_in11=12,719601+{(0,2x-6,779127)+(0,9x-6,779127)}=5,262561=12,719601+{(0,2x-6,779127)+(0,9x-6,779127)}=5,262561
zz11=f(5,262561)=0,994845=f(5,262561)=0,994845
Step 4.Step 4.
y_iny_in11=-5,018457+(0,994845x5,719889)=0,671944=-5,018457+(0,994845x5,719889)=0,671944
yy11=f(0,671944)=0,661938=f(0,671944)=0,661938
Jadi jika input xJadi jika input x11=0,2 dan x=0,2 dan x22=0,9; output yang dihasilkan jaringan=0,9; output yang dihasilkan jaringan
adalah 0,661938adalah 0,661938