SlideShare a Scribd company logo
1 of 38
Jaringan Syaraf tiruan (JSt)
Cakra Adipura Wicaksana, S.T., M.T.
1
Outline materi
Teknik pembelajaran mesin
(learning)
1. Jaringan Syaraf Tiruan / Artificial Neural
Network
2. Komponen Jaringan Syaraf Tiruan
3. Arsitektur JST/ANN
4. Supervised dan Unsupervised learning
5. Back propagation
Jaringan syaraf tiruan jST/ANN
• Algoritma yang terinspirasi dari jaringan otak manusia
Jaringan syaraf tiruan
• Algoritma yang terinspirasi dari jaringan otak manusia
• Salah satu Upaya manusia untuk memodelkan cara kerja atau
sistem syaraf manusia untuk melaksanakan tugas tertentu.
• Mempunyai struktur paraller tersebar yang sangat besar dan
mempunyai kemampuan belajar.
KOMPONEN Jaringan syaraf tiruan
• Dendrit: tempat rangsangan
atau impuls.
• Sinapsis: penghubung
dendrit dan dengan bodi sel.
• Bodi sel: tempat pengolahan
data input.
• Axon: tempat keluaran data
KETERHUBUNGAN ANTAR Jaringan
Proses perhitungan jaringan syaraf tiruan
Fungsi aktivasi Jaringan syaraf tiruan
Fungsi aktivasi dalam Jaringan Saraf Tiruan (JST) digunakan
untuk menggambarkan cara neuron merespons masukan.
Fungsi aktivasi menentukan apakah neuron akan diaktifkan dan
sejauh mana aktivasi tersebut terjadi.
1. Fungsi Treshold Function
2. Fungsi Hard limit
3. Fungsi Symetric hard limit
4. Fungsi bipola threshold
5. Fungsi linier
6. Fungsi piecewise linier
Fungsi TRESHOLD
Fungsi HARD LIMIT
Fungsi symmetric HARD LIMIT
Fungsi bipolar TRESHOLD
Fungsi linier (identity)
Fungsi piecewise linier
Fungsi SOFTMAX
arsitektur Jaringan syaraf tiruan
Arsitektur Jaringan Saraf Tiruan (JST) merujuk pada susunan,
jumlah lapisan, dan jumlah neuron dalam sebuah jaringan.
Pemilihan arsitektur JST sangat penting dan harus disesuaikan
dengan masalah yang ingin diselesaikan.
1. Single Layer feedforward networks
2. Multi layer feedforward networks
3. Recurrent Networks
4. Lattice Structure
Single Layer feedforward networks
Multi layer feedforward networks
Recurrent/berulang Networks
Lattice Structure (satu dimensi, 3 neurons)
Lattice Structure (dua dimensi, 3x3 neurons)
Metode belajar
1. Supervised learning
Supervised learning adalah jenis pembelajaran mesin di mana algoritma
mempelajari fungsi yang memetakan input data ke output yang telah
ditentukan (labeled data) selama proses pelatihan.
Dalam supervised learning, setiap data pelatihan memiliki pasangan input-
output yang dikenal, dan algoritma mencoba untuk memahami hubungan
antara input dan output untuk dapat memprediksi output yang benar untuk
data baru yang belum terlihat.
Tujuan utama supervised learning adalah untuk menghasilkan model yang
dapat melakukan prediksi yang akurat berdasarkan input yang diberikan
Metode belajar
2. Unsupervised learning
Unsupervised learning adalah jenis pembelajaran mesin di mana algoritma
diberikan data yang tidak memiliki label atau output yang sudah ditentukan.
Algoritma ini harus menemukan pola, struktur, atau informasi yang
tersembunyi dalam data tersebut.
Teknik Propagasi balik
Algoritma propagasi balik (backpropagation) adalah algoritma
pelatihan yang digunakan dalam Jaringan Saraf Tiruan (JST)
untuk mengoptimalkan bobot dan bias jaringan agar dapat
melakukan prediksi atau klasifikasi yang akurat berdasarkan
data pelatihan.
Algoritma ini memanfaatkan perhitungan gradien (gradient) dari
fungsi galat (error) terhadap bobot dan bias untuk mengubah
parameter-parameter tersebut selama pelatihan.
Proses Maju dan Proses Mundur
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Proses maju
• Dengan menggunakan bobot-bobot yang telah diperoleh dari inisialisasi
random dari komputer, dapat dihitung keluaran hidden layer dengan
menggunakan persamaan fungsi aktivasi sigmoid.
𝑨𝟏 =
𝟏
𝟏 + 𝒆(𝑾𝟏∗𝑷+𝑩𝟏)
• Hasil keluaran A1 dipakai untuk mendapatkan A2 dengan persamaan
sebagai berikut 𝑨𝟐 = 𝑾𝟐 ∗ 𝑨𝟏 + 𝑩𝟐
• Keluaran A2 ini dipakai untuk menghitung nilai Error atau galat seperti
persmaan ini 𝑬 = 𝑻 − 𝑨𝟐
• Kemudian nilai keseluruha galat dijumlahkan sum square error
𝑺𝑺𝑬 = 𝑬𝟐
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Proses MUNDUR 1
• Nilai galat yang diperoleh dipakai untuk parameter pelatihan dan akan
selesai jika nilai galat yang diperoleh sudah dapat diterima.
• Nilai galat yang didapat dikembalikan lagi ke lapis-lapis di depan nya
dan neuron pada lapis tersebut akan memperbaiki bobot nya.
Perhitungan untuk perbaikan bobot nya adalah sebagai berikut
𝑫𝟐 = 𝑨𝟐 ∗ (𝟏 − 𝑨𝟐) * E
𝒅𝑾𝟐 = 𝒅𝑾𝟐 + 𝒍𝒓 ∗ 𝑫𝟐 ∗ 𝑨𝟏
𝒅𝑩𝟐 = 𝒅𝑩𝟐 + (𝒍𝒓 ∗ 𝑫𝟐)
𝑫𝟏 = 𝑨𝟏 ∗ 𝟏 − 𝑨𝟏 ∗ 𝑫𝟐 ∗ 𝑾𝟐
𝒅𝑾𝟏 = 𝒅𝑾𝟏 + (𝒍𝒓 ∗ 𝑫𝟏 ∗ 𝑷)
𝒅𝑩𝟏 = 𝒅𝑩𝟏 + 𝒍𝒓 ∗ 𝑫𝟏
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Proses MUNDUR 2
• Setelah neuron-neuron mendapatkan nilai yang sesuai dengan
kontribusinya pada galat keluaran, maka bobot-bobot pada jaringan
dapat diperbaiki agar nilai galat nya kecil. Cara memperbaiki bobot-
bobot nya adalah:
𝑻𝑾𝟏 = 𝑾𝟏 + 𝒅𝑾𝟏
𝑻𝑩𝟏 = 𝑩𝟏 + 𝒅𝑩𝟏
𝑻𝑾𝟐 = 𝑾𝟐 + 𝒅𝑾𝟐
𝑻𝑩𝟐 = 𝑩𝟐 + 𝒅𝑩𝟐
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Proses MUNDUR 3 (Mirip proses MAJU)
• Bobot-bobot yang baru, hasil perbaikan, dapat digunakan Kembali untuk mengetahui
apakah bobot-bobot tersebut sudah cukup baik untuk jaringan, maksud nya dengan
bobot yang baru itu, galat yang dihasilkan sudah cukup kecil. Pemakaian nilai bobot-
bobot yang baru diperlihatkan pada persamaan berikut:
𝑻𝑨𝟏 =
𝟏
𝟏 + 𝒆(𝑻𝑾𝟏∗𝑷+𝑻𝑩𝟏)
𝑻𝑨𝟐 = 𝑻𝑾𝟐 ∗ 𝑻𝑨𝟏 + 𝑻𝑩𝟐
T𝑬 = 𝑻 − 𝑻𝑨𝟐
𝑻𝑺𝑺𝑬 = 𝑬𝟐
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Proses MUNDUR 4 (update bobot)
Kemudian bobot – bobot sinapsis jaringan diubah menjadi bobot-bobot baru:
𝑾𝟏 = 𝑻𝑾𝟏;
𝑨𝟏 = 𝑻𝑨𝟏;
𝑩𝟏 = 𝑻𝑩𝟏;
𝑨𝟐 = 𝑻𝑨𝟐;
𝑾𝟐 = 𝑻𝑾𝟐;
𝐄 = 𝑻𝑬;
𝑩𝟐 = 𝑻𝑩𝟐;
𝑺𝑺𝑬 = 𝑻𝑺𝑺𝑬;
Semua proses di atas adalah untuk satu kali siklus pelatihan atau satu epoch. Pelatihan
akan terus berulang hingga jumlah siklus tertentu atau SSE atau MSE yang diinginkan.
Hasil akhir dari pelatihan ini adalah W1, W2, B1, B2.
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
backpropagation
Algoritma propagasi balik (backpropagation) adalah algoritma
pelatihan yang digunakan dalam Jaringan Saraf Tiruan (JST)
untuk mengoptimalkan bobot dan bias jaringan agar dapat
melakukan prediksi atau klasifikasi yang akurat berdasarkan
data pelatihan.
Algoritma ini memanfaatkan perhitungan gradien (gradient) dari
fungsi galat (error) terhadap bobot dan bias untuk mengubah
parameter-parameter tersebut selama pelatihan.
Proses Maju dan Proses Mundur
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Contoh kasus
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Pelama
r
IPK Psikologi Wawancara Diterima
P1 Bagus Tinggi Baik Ya
P2 Bagus Sedang Baik Ya
P3 Bagus Sedang Buruk Ya
P4 Bagus Rendah Buruk Tidak
P5 Cukup Tinggi Baik Ya
P6 Cukup Sedang Baik Ya
P7 Cukup Sedang Buruk Ya
P8 Cukup Rendah Buruk Tidak
P9 Kurang Tinggi Baik Ya
P10 Kurang Sedang Buruk Tidak
P11 Kurang Rendah Baik Ya
Konversi ke angka (dataset)
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Pelama
r
IPK Psikologi Wawancara Diterima
P1 3 3 2 1
P2 3 2 2 1
P3 3 2 1 1
P4 3 1 1 0
P5 2 3 2 1
P6 2 2 2 1
P7 2 2 1 1
P8 2 1 1 0
P9 1 3 2 1
P10 1 2 1 0
P11 1 1 2 1
Data testing
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Pelama
r
IPK Psikologi Wawancara Diterima
P12 3 3 1 0
P13 3 1 2 1
P14 2 3 1 0
P15 2 1 2 1
P16 1 3 1 0
P17 1 2 2 1
P18 1 1 1 0
Solusi 1
• Ubah ke bentuk matrix
• Tentukan jenis layer jaringan 3-2-1 (3 input, 2 hidden layer, 1
output)
• Inisialisasi bobot W1 dan W2
Epoch = 5000
Learning Rate = 0,1
Jumlah Hidden layer = 2
Jumlah Output layer = 1
Max MSE = 10−5
Kenapa akurasi nya Cuma 14% ? Model yang bagus min 70%
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Solusi 2
• Matrix Input =
3 3 2
3 2 2
3 2 1
3 1 1
2 3 2
2 2 2
2 2 1
2 1 1
1 3 2
1 2 1
1 1 2
Matrix Target =
1
1
1
0
1
1
1
0
1
0
1
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Solusi 3
• Bobot W1 =
𝑎 𝑑
𝑏 𝑒
𝑐 𝑓
• Bobot W2 =
𝑥
𝑦
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Model jaringan
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
X1
X2
X3
H1
H2
O1
Hidden Layer
Input Layer
Output Layer
W1
W1
W1
W1
W1
W1
W2
W2
3
3
2
3
2
2
3
2
1
..
..
..
W1 =
0.4950 0.3377
−0.9702 0.2152
−0.8958 0.0589
W2 =
0.4542
0.4438
TERIMA KASIH
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa

More Related Content

Similar to Pertemuan 5_Jaringan Syaraf Tiruan Upload.pptx

Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)ahmad haidaroh
 
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)Farichah Riha
 
Machine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdfMachine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdfHendroGunawan8
 
scikit-learn cheat sheet untuk data science
scikit-learn cheat sheet untuk data sciencescikit-learn cheat sheet untuk data science
scikit-learn cheat sheet untuk data sciencesoftscients
 
Presentasi Seminar Proposal
Presentasi Seminar ProposalPresentasi Seminar Proposal
Presentasi Seminar ProposalDaryan Ramadhany
 
Andrew hidayat 101703-id-none
 Andrew hidayat   101703-id-none Andrew hidayat   101703-id-none
Andrew hidayat 101703-id-noneAndrew Hidayat
 
Dw 9-intelijensi buatan
Dw 9-intelijensi buatanDw 9-intelijensi buatan
Dw 9-intelijensi buatanDian Sari
 
Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1aereal
 
Radial Basis Function Network (RBFN)
Radial Basis Function Network (RBFN)Radial Basis Function Network (RBFN)
Radial Basis Function Network (RBFN)ahmad haidaroh
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptxSeminusPahabol
 
Bab i1 kohonen (recovered)
Bab i1 kohonen (recovered)Bab i1 kohonen (recovered)
Bab i1 kohonen (recovered)Eka Suryadana
 
Ppt sidang 4 september 2017 sesi 2 nita tri andini
Ppt sidang 4 september 2017 sesi 2 nita tri andiniPpt sidang 4 september 2017 sesi 2 nita tri andini
Ppt sidang 4 september 2017 sesi 2 nita tri andiniNita NTD
 
Artificial-Neural-Networks-.pptx
Artificial-Neural-Networks-.pptxArtificial-Neural-Networks-.pptx
Artificial-Neural-Networks-.pptxEri Zuliarso
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruanLarasWiranti2
 

Similar to Pertemuan 5_Jaringan Syaraf Tiruan Upload.pptx (20)

backpropagation
backpropagationbackpropagation
backpropagation
 
Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)
 
JST.ppt
JST.pptJST.ppt
JST.ppt
 
Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)
 
Machine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdfMachine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdf
 
scikit-learn cheat sheet untuk data science
scikit-learn cheat sheet untuk data sciencescikit-learn cheat sheet untuk data science
scikit-learn cheat sheet untuk data science
 
Presentasi Seminar Proposal
Presentasi Seminar ProposalPresentasi Seminar Proposal
Presentasi Seminar Proposal
 
Andrew hidayat 101703-id-none
 Andrew hidayat   101703-id-none Andrew hidayat   101703-id-none
Andrew hidayat 101703-id-none
 
Jst part5
Jst part5Jst part5
Jst part5
 
Dw 9-intelijensi buatan
Dw 9-intelijensi buatanDw 9-intelijensi buatan
Dw 9-intelijensi buatan
 
Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1
 
Radial Basis Function Network (RBFN)
Radial Basis Function Network (RBFN)Radial Basis Function Network (RBFN)
Radial Basis Function Network (RBFN)
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
 
UTS JST 2014/2015
UTS JST 2014/2015UTS JST 2014/2015
UTS JST 2014/2015
 
Bab i1 kohonen (recovered)
Bab i1 kohonen (recovered)Bab i1 kohonen (recovered)
Bab i1 kohonen (recovered)
 
Elk01010106
Elk01010106Elk01010106
Elk01010106
 
Ppt sidang 4 september 2017 sesi 2 nita tri andini
Ppt sidang 4 september 2017 sesi 2 nita tri andiniPpt sidang 4 september 2017 sesi 2 nita tri andini
Ppt sidang 4 september 2017 sesi 2 nita tri andini
 
Artificial-Neural-Networks-.pptx
Artificial-Neural-Networks-.pptxArtificial-Neural-Networks-.pptx
Artificial-Neural-Networks-.pptx
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
Jaringan perceptron & matlab
Jaringan perceptron & matlabJaringan perceptron & matlab
Jaringan perceptron & matlab
 

Pertemuan 5_Jaringan Syaraf Tiruan Upload.pptx

  • 1. Jaringan Syaraf tiruan (JSt) Cakra Adipura Wicaksana, S.T., M.T. 1
  • 2. Outline materi Teknik pembelajaran mesin (learning) 1. Jaringan Syaraf Tiruan / Artificial Neural Network 2. Komponen Jaringan Syaraf Tiruan 3. Arsitektur JST/ANN 4. Supervised dan Unsupervised learning 5. Back propagation
  • 3. Jaringan syaraf tiruan jST/ANN • Algoritma yang terinspirasi dari jaringan otak manusia
  • 4. Jaringan syaraf tiruan • Algoritma yang terinspirasi dari jaringan otak manusia • Salah satu Upaya manusia untuk memodelkan cara kerja atau sistem syaraf manusia untuk melaksanakan tugas tertentu. • Mempunyai struktur paraller tersebar yang sangat besar dan mempunyai kemampuan belajar.
  • 5. KOMPONEN Jaringan syaraf tiruan • Dendrit: tempat rangsangan atau impuls. • Sinapsis: penghubung dendrit dan dengan bodi sel. • Bodi sel: tempat pengolahan data input. • Axon: tempat keluaran data
  • 8. Fungsi aktivasi Jaringan syaraf tiruan Fungsi aktivasi dalam Jaringan Saraf Tiruan (JST) digunakan untuk menggambarkan cara neuron merespons masukan. Fungsi aktivasi menentukan apakah neuron akan diaktifkan dan sejauh mana aktivasi tersebut terjadi. 1. Fungsi Treshold Function 2. Fungsi Hard limit 3. Fungsi Symetric hard limit 4. Fungsi bipola threshold 5. Fungsi linier 6. Fungsi piecewise linier
  • 16. arsitektur Jaringan syaraf tiruan Arsitektur Jaringan Saraf Tiruan (JST) merujuk pada susunan, jumlah lapisan, dan jumlah neuron dalam sebuah jaringan. Pemilihan arsitektur JST sangat penting dan harus disesuaikan dengan masalah yang ingin diselesaikan. 1. Single Layer feedforward networks 2. Multi layer feedforward networks 3. Recurrent Networks 4. Lattice Structure
  • 20. Lattice Structure (satu dimensi, 3 neurons)
  • 21. Lattice Structure (dua dimensi, 3x3 neurons)
  • 22. Metode belajar 1. Supervised learning Supervised learning adalah jenis pembelajaran mesin di mana algoritma mempelajari fungsi yang memetakan input data ke output yang telah ditentukan (labeled data) selama proses pelatihan. Dalam supervised learning, setiap data pelatihan memiliki pasangan input- output yang dikenal, dan algoritma mencoba untuk memahami hubungan antara input dan output untuk dapat memprediksi output yang benar untuk data baru yang belum terlihat. Tujuan utama supervised learning adalah untuk menghasilkan model yang dapat melakukan prediksi yang akurat berdasarkan input yang diberikan
  • 23. Metode belajar 2. Unsupervised learning Unsupervised learning adalah jenis pembelajaran mesin di mana algoritma diberikan data yang tidak memiliki label atau output yang sudah ditentukan. Algoritma ini harus menemukan pola, struktur, atau informasi yang tersembunyi dalam data tersebut.
  • 24. Teknik Propagasi balik Algoritma propagasi balik (backpropagation) adalah algoritma pelatihan yang digunakan dalam Jaringan Saraf Tiruan (JST) untuk mengoptimalkan bobot dan bias jaringan agar dapat melakukan prediksi atau klasifikasi yang akurat berdasarkan data pelatihan. Algoritma ini memanfaatkan perhitungan gradien (gradient) dari fungsi galat (error) terhadap bobot dan bias untuk mengubah parameter-parameter tersebut selama pelatihan. Proses Maju dan Proses Mundur Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
  • 25. Proses maju • Dengan menggunakan bobot-bobot yang telah diperoleh dari inisialisasi random dari komputer, dapat dihitung keluaran hidden layer dengan menggunakan persamaan fungsi aktivasi sigmoid. 𝑨𝟏 = 𝟏 𝟏 + 𝒆(𝑾𝟏∗𝑷+𝑩𝟏) • Hasil keluaran A1 dipakai untuk mendapatkan A2 dengan persamaan sebagai berikut 𝑨𝟐 = 𝑾𝟐 ∗ 𝑨𝟏 + 𝑩𝟐 • Keluaran A2 ini dipakai untuk menghitung nilai Error atau galat seperti persmaan ini 𝑬 = 𝑻 − 𝑨𝟐 • Kemudian nilai keseluruha galat dijumlahkan sum square error 𝑺𝑺𝑬 = 𝑬𝟐 Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
  • 26. Proses MUNDUR 1 • Nilai galat yang diperoleh dipakai untuk parameter pelatihan dan akan selesai jika nilai galat yang diperoleh sudah dapat diterima. • Nilai galat yang didapat dikembalikan lagi ke lapis-lapis di depan nya dan neuron pada lapis tersebut akan memperbaiki bobot nya. Perhitungan untuk perbaikan bobot nya adalah sebagai berikut 𝑫𝟐 = 𝑨𝟐 ∗ (𝟏 − 𝑨𝟐) * E 𝒅𝑾𝟐 = 𝒅𝑾𝟐 + 𝒍𝒓 ∗ 𝑫𝟐 ∗ 𝑨𝟏 𝒅𝑩𝟐 = 𝒅𝑩𝟐 + (𝒍𝒓 ∗ 𝑫𝟐) 𝑫𝟏 = 𝑨𝟏 ∗ 𝟏 − 𝑨𝟏 ∗ 𝑫𝟐 ∗ 𝑾𝟐 𝒅𝑾𝟏 = 𝒅𝑾𝟏 + (𝒍𝒓 ∗ 𝑫𝟏 ∗ 𝑷) 𝒅𝑩𝟏 = 𝒅𝑩𝟏 + 𝒍𝒓 ∗ 𝑫𝟏 Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
  • 27. Proses MUNDUR 2 • Setelah neuron-neuron mendapatkan nilai yang sesuai dengan kontribusinya pada galat keluaran, maka bobot-bobot pada jaringan dapat diperbaiki agar nilai galat nya kecil. Cara memperbaiki bobot- bobot nya adalah: 𝑻𝑾𝟏 = 𝑾𝟏 + 𝒅𝑾𝟏 𝑻𝑩𝟏 = 𝑩𝟏 + 𝒅𝑩𝟏 𝑻𝑾𝟐 = 𝑾𝟐 + 𝒅𝑾𝟐 𝑻𝑩𝟐 = 𝑩𝟐 + 𝒅𝑩𝟐 Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
  • 28. Proses MUNDUR 3 (Mirip proses MAJU) • Bobot-bobot yang baru, hasil perbaikan, dapat digunakan Kembali untuk mengetahui apakah bobot-bobot tersebut sudah cukup baik untuk jaringan, maksud nya dengan bobot yang baru itu, galat yang dihasilkan sudah cukup kecil. Pemakaian nilai bobot- bobot yang baru diperlihatkan pada persamaan berikut: 𝑻𝑨𝟏 = 𝟏 𝟏 + 𝒆(𝑻𝑾𝟏∗𝑷+𝑻𝑩𝟏) 𝑻𝑨𝟐 = 𝑻𝑾𝟐 ∗ 𝑻𝑨𝟏 + 𝑻𝑩𝟐 T𝑬 = 𝑻 − 𝑻𝑨𝟐 𝑻𝑺𝑺𝑬 = 𝑬𝟐 Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
  • 29. Proses MUNDUR 4 (update bobot) Kemudian bobot – bobot sinapsis jaringan diubah menjadi bobot-bobot baru: 𝑾𝟏 = 𝑻𝑾𝟏; 𝑨𝟏 = 𝑻𝑨𝟏; 𝑩𝟏 = 𝑻𝑩𝟏; 𝑨𝟐 = 𝑻𝑨𝟐; 𝑾𝟐 = 𝑻𝑾𝟐; 𝐄 = 𝑻𝑬; 𝑩𝟐 = 𝑻𝑩𝟐; 𝑺𝑺𝑬 = 𝑻𝑺𝑺𝑬; Semua proses di atas adalah untuk satu kali siklus pelatihan atau satu epoch. Pelatihan akan terus berulang hingga jumlah siklus tertentu atau SSE atau MSE yang diinginkan. Hasil akhir dari pelatihan ini adalah W1, W2, B1, B2. Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
  • 30. backpropagation Algoritma propagasi balik (backpropagation) adalah algoritma pelatihan yang digunakan dalam Jaringan Saraf Tiruan (JST) untuk mengoptimalkan bobot dan bias jaringan agar dapat melakukan prediksi atau klasifikasi yang akurat berdasarkan data pelatihan. Algoritma ini memanfaatkan perhitungan gradien (gradient) dari fungsi galat (error) terhadap bobot dan bias untuk mengubah parameter-parameter tersebut selama pelatihan. Proses Maju dan Proses Mundur Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
  • 31. Contoh kasus Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa Pelama r IPK Psikologi Wawancara Diterima P1 Bagus Tinggi Baik Ya P2 Bagus Sedang Baik Ya P3 Bagus Sedang Buruk Ya P4 Bagus Rendah Buruk Tidak P5 Cukup Tinggi Baik Ya P6 Cukup Sedang Baik Ya P7 Cukup Sedang Buruk Ya P8 Cukup Rendah Buruk Tidak P9 Kurang Tinggi Baik Ya P10 Kurang Sedang Buruk Tidak P11 Kurang Rendah Baik Ya
  • 32. Konversi ke angka (dataset) Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa Pelama r IPK Psikologi Wawancara Diterima P1 3 3 2 1 P2 3 2 2 1 P3 3 2 1 1 P4 3 1 1 0 P5 2 3 2 1 P6 2 2 2 1 P7 2 2 1 1 P8 2 1 1 0 P9 1 3 2 1 P10 1 2 1 0 P11 1 1 2 1
  • 33. Data testing Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa Pelama r IPK Psikologi Wawancara Diterima P12 3 3 1 0 P13 3 1 2 1 P14 2 3 1 0 P15 2 1 2 1 P16 1 3 1 0 P17 1 2 2 1 P18 1 1 1 0
  • 34. Solusi 1 • Ubah ke bentuk matrix • Tentukan jenis layer jaringan 3-2-1 (3 input, 2 hidden layer, 1 output) • Inisialisasi bobot W1 dan W2 Epoch = 5000 Learning Rate = 0,1 Jumlah Hidden layer = 2 Jumlah Output layer = 1 Max MSE = 10−5 Kenapa akurasi nya Cuma 14% ? Model yang bagus min 70% Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
  • 35. Solusi 2 • Matrix Input = 3 3 2 3 2 2 3 2 1 3 1 1 2 3 2 2 2 2 2 2 1 2 1 1 1 3 2 1 2 1 1 1 2 Matrix Target = 1 1 1 0 1 1 1 0 1 0 1 Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
  • 36. Solusi 3 • Bobot W1 = 𝑎 𝑑 𝑏 𝑒 𝑐 𝑓 • Bobot W2 = 𝑥 𝑦 Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
  • 37. Model jaringan Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa X1 X2 X3 H1 H2 O1 Hidden Layer Input Layer Output Layer W1 W1 W1 W1 W1 W1 W2 W2 3 3 2 3 2 2 3 2 1 .. .. .. W1 = 0.4950 0.3377 −0.9702 0.2152 −0.8958 0.0589 W2 = 0.4542 0.4438
  • 38. TERIMA KASIH Program Studi Informatika Fakultas Teknik, Universitas Sultan Ageng Tirtayasa