4. Jaringan syaraf tiruan
• Algoritma yang terinspirasi dari jaringan otak manusia
• Salah satu Upaya manusia untuk memodelkan cara kerja atau
sistem syaraf manusia untuk melaksanakan tugas tertentu.
• Mempunyai struktur paraller tersebar yang sangat besar dan
mempunyai kemampuan belajar.
5. KOMPONEN Jaringan syaraf tiruan
• Dendrit: tempat rangsangan
atau impuls.
• Sinapsis: penghubung
dendrit dan dengan bodi sel.
• Bodi sel: tempat pengolahan
data input.
• Axon: tempat keluaran data
8. Fungsi aktivasi Jaringan syaraf tiruan
Fungsi aktivasi dalam Jaringan Saraf Tiruan (JST) digunakan
untuk menggambarkan cara neuron merespons masukan.
Fungsi aktivasi menentukan apakah neuron akan diaktifkan dan
sejauh mana aktivasi tersebut terjadi.
1. Fungsi Treshold Function
2. Fungsi Hard limit
3. Fungsi Symetric hard limit
4. Fungsi bipola threshold
5. Fungsi linier
6. Fungsi piecewise linier
16. arsitektur Jaringan syaraf tiruan
Arsitektur Jaringan Saraf Tiruan (JST) merujuk pada susunan,
jumlah lapisan, dan jumlah neuron dalam sebuah jaringan.
Pemilihan arsitektur JST sangat penting dan harus disesuaikan
dengan masalah yang ingin diselesaikan.
1. Single Layer feedforward networks
2. Multi layer feedforward networks
3. Recurrent Networks
4. Lattice Structure
22. Metode belajar
1. Supervised learning
Supervised learning adalah jenis pembelajaran mesin di mana algoritma
mempelajari fungsi yang memetakan input data ke output yang telah
ditentukan (labeled data) selama proses pelatihan.
Dalam supervised learning, setiap data pelatihan memiliki pasangan input-
output yang dikenal, dan algoritma mencoba untuk memahami hubungan
antara input dan output untuk dapat memprediksi output yang benar untuk
data baru yang belum terlihat.
Tujuan utama supervised learning adalah untuk menghasilkan model yang
dapat melakukan prediksi yang akurat berdasarkan input yang diberikan
23. Metode belajar
2. Unsupervised learning
Unsupervised learning adalah jenis pembelajaran mesin di mana algoritma
diberikan data yang tidak memiliki label atau output yang sudah ditentukan.
Algoritma ini harus menemukan pola, struktur, atau informasi yang
tersembunyi dalam data tersebut.
24. Teknik Propagasi balik
Algoritma propagasi balik (backpropagation) adalah algoritma
pelatihan yang digunakan dalam Jaringan Saraf Tiruan (JST)
untuk mengoptimalkan bobot dan bias jaringan agar dapat
melakukan prediksi atau klasifikasi yang akurat berdasarkan
data pelatihan.
Algoritma ini memanfaatkan perhitungan gradien (gradient) dari
fungsi galat (error) terhadap bobot dan bias untuk mengubah
parameter-parameter tersebut selama pelatihan.
Proses Maju dan Proses Mundur
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
25. Proses maju
• Dengan menggunakan bobot-bobot yang telah diperoleh dari inisialisasi
random dari komputer, dapat dihitung keluaran hidden layer dengan
menggunakan persamaan fungsi aktivasi sigmoid.
𝑨𝟏 =
𝟏
𝟏 + 𝒆(𝑾𝟏∗𝑷+𝑩𝟏)
• Hasil keluaran A1 dipakai untuk mendapatkan A2 dengan persamaan
sebagai berikut 𝑨𝟐 = 𝑾𝟐 ∗ 𝑨𝟏 + 𝑩𝟐
• Keluaran A2 ini dipakai untuk menghitung nilai Error atau galat seperti
persmaan ini 𝑬 = 𝑻 − 𝑨𝟐
• Kemudian nilai keseluruha galat dijumlahkan sum square error
𝑺𝑺𝑬 = 𝑬𝟐
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
26. Proses MUNDUR 1
• Nilai galat yang diperoleh dipakai untuk parameter pelatihan dan akan
selesai jika nilai galat yang diperoleh sudah dapat diterima.
• Nilai galat yang didapat dikembalikan lagi ke lapis-lapis di depan nya
dan neuron pada lapis tersebut akan memperbaiki bobot nya.
Perhitungan untuk perbaikan bobot nya adalah sebagai berikut
𝑫𝟐 = 𝑨𝟐 ∗ (𝟏 − 𝑨𝟐) * E
𝒅𝑾𝟐 = 𝒅𝑾𝟐 + 𝒍𝒓 ∗ 𝑫𝟐 ∗ 𝑨𝟏
𝒅𝑩𝟐 = 𝒅𝑩𝟐 + (𝒍𝒓 ∗ 𝑫𝟐)
𝑫𝟏 = 𝑨𝟏 ∗ 𝟏 − 𝑨𝟏 ∗ 𝑫𝟐 ∗ 𝑾𝟐
𝒅𝑾𝟏 = 𝒅𝑾𝟏 + (𝒍𝒓 ∗ 𝑫𝟏 ∗ 𝑷)
𝒅𝑩𝟏 = 𝒅𝑩𝟏 + 𝒍𝒓 ∗ 𝑫𝟏
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
27. Proses MUNDUR 2
• Setelah neuron-neuron mendapatkan nilai yang sesuai dengan
kontribusinya pada galat keluaran, maka bobot-bobot pada jaringan
dapat diperbaiki agar nilai galat nya kecil. Cara memperbaiki bobot-
bobot nya adalah:
𝑻𝑾𝟏 = 𝑾𝟏 + 𝒅𝑾𝟏
𝑻𝑩𝟏 = 𝑩𝟏 + 𝒅𝑩𝟏
𝑻𝑾𝟐 = 𝑾𝟐 + 𝒅𝑾𝟐
𝑻𝑩𝟐 = 𝑩𝟐 + 𝒅𝑩𝟐
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
28. Proses MUNDUR 3 (Mirip proses MAJU)
• Bobot-bobot yang baru, hasil perbaikan, dapat digunakan Kembali untuk mengetahui
apakah bobot-bobot tersebut sudah cukup baik untuk jaringan, maksud nya dengan
bobot yang baru itu, galat yang dihasilkan sudah cukup kecil. Pemakaian nilai bobot-
bobot yang baru diperlihatkan pada persamaan berikut:
𝑻𝑨𝟏 =
𝟏
𝟏 + 𝒆(𝑻𝑾𝟏∗𝑷+𝑻𝑩𝟏)
𝑻𝑨𝟐 = 𝑻𝑾𝟐 ∗ 𝑻𝑨𝟏 + 𝑻𝑩𝟐
T𝑬 = 𝑻 − 𝑻𝑨𝟐
𝑻𝑺𝑺𝑬 = 𝑬𝟐
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
29. Proses MUNDUR 4 (update bobot)
Kemudian bobot – bobot sinapsis jaringan diubah menjadi bobot-bobot baru:
𝑾𝟏 = 𝑻𝑾𝟏;
𝑨𝟏 = 𝑻𝑨𝟏;
𝑩𝟏 = 𝑻𝑩𝟏;
𝑨𝟐 = 𝑻𝑨𝟐;
𝑾𝟐 = 𝑻𝑾𝟐;
𝐄 = 𝑻𝑬;
𝑩𝟐 = 𝑻𝑩𝟐;
𝑺𝑺𝑬 = 𝑻𝑺𝑺𝑬;
Semua proses di atas adalah untuk satu kali siklus pelatihan atau satu epoch. Pelatihan
akan terus berulang hingga jumlah siklus tertentu atau SSE atau MSE yang diinginkan.
Hasil akhir dari pelatihan ini adalah W1, W2, B1, B2.
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
30. backpropagation
Algoritma propagasi balik (backpropagation) adalah algoritma
pelatihan yang digunakan dalam Jaringan Saraf Tiruan (JST)
untuk mengoptimalkan bobot dan bias jaringan agar dapat
melakukan prediksi atau klasifikasi yang akurat berdasarkan
data pelatihan.
Algoritma ini memanfaatkan perhitungan gradien (gradient) dari
fungsi galat (error) terhadap bobot dan bias untuk mengubah
parameter-parameter tersebut selama pelatihan.
Proses Maju dan Proses Mundur
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
31. Contoh kasus
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Pelama
r
IPK Psikologi Wawancara Diterima
P1 Bagus Tinggi Baik Ya
P2 Bagus Sedang Baik Ya
P3 Bagus Sedang Buruk Ya
P4 Bagus Rendah Buruk Tidak
P5 Cukup Tinggi Baik Ya
P6 Cukup Sedang Baik Ya
P7 Cukup Sedang Buruk Ya
P8 Cukup Rendah Buruk Tidak
P9 Kurang Tinggi Baik Ya
P10 Kurang Sedang Buruk Tidak
P11 Kurang Rendah Baik Ya
32. Konversi ke angka (dataset)
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Pelama
r
IPK Psikologi Wawancara Diterima
P1 3 3 2 1
P2 3 2 2 1
P3 3 2 1 1
P4 3 1 1 0
P5 2 3 2 1
P6 2 2 2 1
P7 2 2 1 1
P8 2 1 1 0
P9 1 3 2 1
P10 1 2 1 0
P11 1 1 2 1
33. Data testing
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa
Pelama
r
IPK Psikologi Wawancara Diterima
P12 3 3 1 0
P13 3 1 2 1
P14 2 3 1 0
P15 2 1 2 1
P16 1 3 1 0
P17 1 2 2 1
P18 1 1 1 0
34. Solusi 1
• Ubah ke bentuk matrix
• Tentukan jenis layer jaringan 3-2-1 (3 input, 2 hidden layer, 1
output)
• Inisialisasi bobot W1 dan W2
Epoch = 5000
Learning Rate = 0,1
Jumlah Hidden layer = 2
Jumlah Output layer = 1
Max MSE = 10−5
Kenapa akurasi nya Cuma 14% ? Model yang bagus min 70%
Program Studi Informatika
Fakultas Teknik, Universitas Sultan Ageng Tirtayasa