Dokumen tersebut membahas pengantar mengenai deep learning, mulai dari pengertian artificial intelligence, machine learning, dan deep learning. Kemudian dibahas perbedaan pendekatan klasifikasi secara konvensional dan berbasis deep learning beserta contoh aplikasinya. Selanjutnya dibahas arsitektur deep learning seperti convolutional neural network (CNN) dan strategi pelatihannya.
5. Klasifikasi Secara Konvensional
www.its.ac.id/informatika INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
• Pendekatan klasifikasi secara konvensional umumnya melakukan
ektraksi fitur secara terpisah kemudian dilanjutkan proses
pembelajaran menggunakan metode klasifikasi konvensional seperti DT,
SVM, atau ANN.
• Salah satu contoh permasalahan klasifikasi adalah pengenalan obyek
Praproses
Ekstraksi
Fitur
Klasifikasi Apel
6. Klasifikasi Secara Konvensional
www.its.ac.id/informatika INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
o Warna
o Bentuk
o Tekstur
Ekstraksi Fitur
…
Apel
Jeruk
No Warna Bentuk Tekstur Kelas
1 Merah Bulat Halus Apel
2 Hijau Bulat Halus Apel
3 Kuning Lonjong Kasar Jeruk
…
N Hijau Lonjong Kasar Jeruk
Klasifikasi
Kelemahan
• Memerlukan waktu dan
pengetahuan lebih untuk
ekstraksi fitur
• Sangat tergantung pada satu
domain permasalahan saja
sehingga tidak berlaku
general
o Warna
o Bentuk
o Tekstur
o Ukuran
No Warna Bentuk Tekstur Ukuran Kelas
1 Merah Bulat Halus Besar Apel
2 Hijau Bulat Halus Sedang Apel
3 Kuning Lonjong Kasar Besar Jeruk
…
N-1 Hjiau Lonjong Kasar Sedang Jeruk
N Hijau Bulat Halus Kecil Jeruk
7. Berbasis Deep Learning
www.its.ac.id/informatika INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
• Pengenalan obyek berbasis Deep learning mempelajari representasi hirarki (pola
fitur) secara otomatis melalui beberapa tahapan proses feature learning
…
…
…
…
…
Ekstraksi Fitur + Klasifikasi
Apel
Jeruk
Output
Input
Low-level
feature
Mid-level
feature
High-level
feature
Feature learning
8. Representasi Hirarki Fitur
www.its.ac.id/informatika INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
• Hirarki pada representasi fitur menunjukkan kenaikan level dari abstraksi.
• Setiap tahapan merupakan proses feature learning pada transformasi fitur
Low-level feature Mid-level feature High-level feature
Kenaikan level abstraksi
9. www.its.ac.id/informatika INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
Deep Neural Network
Output
Layer
Hidden Layers
Input
Layer
Input Output
Layer 1
……
N
x
……
Layer 2
……
Layer L
……
…….
…….
….…
……
y1
y2
yM
Layer 3
……
Layer 4
……
1
x
2
x
Deep artinya banyak hidden layer
10. www.its.ac.id/informatika INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
Deep vs Shallow
Layer × Size
Word Error
Rate (%)
Layer × Size
Word Error
Rate (%)
1 × 2k 24.2
2 × 2k 20.4
3 × 2k 18.4
4 × 2k 17.8
5 × 2k 17.2 1 × 3772 22.5
7 × 2k 17.1 1 × 4634 22.6
1 × 16k 22.1
Seide, Frank, Gang Li, and Dong Yu. "Conversational Speech Transcription Using
Context-Dependent Deep Neural Networks." Interspeech. 2011.
Manakah yang lebih
baik?
17. Convolutional Neural Network (CNN)
www.its.ac.id/informatika INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
• CNN merupakan salah satu varian Neural Network dengan beberapa layer
konvolusi dan layer lainnya.
• Layer konvolusi mempunyai sejumlah filter yang mengaplikasikan operasi
konvolusi.
Input
Filter
Feature Map
Proses Konvolusi
21. Proses
Konvolus
i
www.its.ac.id/informatika INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
Ukuran Convoluted Feature (Feature Map)
Ukuran output gambar hasil proses konvolusi dapat
dihitung dengan rumus sebagai berikut:
Contoh:
((N - F)/s) + 1 stride =1 ((5-3)/1) + 1 = 3
N: input size stride= 2 ((5-3)/2) + 1 = 2
F: filter size
s: stride
Stride adalah besarnya step yang digunakan ketika melakukan sliding
filter
27. Pooling
www.its.ac.id/informatika INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
• Pooling layer digunakan untuk mengurangi ukuran
gambar menjadi lebih kecil (downsample) dan
mengekstrak salient features
• Ada dua tipe pooling yaitu Maximum pooling dan
Average pooling
Pooling with 2x2 filters and stride 2
30. Strategi Proses Pelatihan (Training)
www.its.ac.id INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
overfitting
Mencegah
overfitting
Modifikasi Network
Memilih metode
optimasi
http://www.gizmodo.com.au/2015/04/the-basic-
recipe-for-machine-learning-explained-in-a-single-
powerpoint-slide/
31. Strategi Proses Pelatihan (Training)
www.its.ac.id INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
Modifikasi Network
• Merubah arsitektur
• Merubah fungsi aktivasi
Memilih Metode Optimasi
• Adaptive learning rate
Mencegah Overfitting
• Dropout
• Augmentasi data
32. ADAPTIVE
LEARNING RATE
www.its.ac.id INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
•Adagrad [John Duchi, JMLR’11]
•RMSprop
• https://www.youtube.com/watch?v=O3s
xAc4hxZU
•Adadelta [Matthew D. Zeiler, arXiv’12]
•Adam [Diederik P. Kingma, ICLR’15]
•AdaSecant [Caglar Gulcehre, arXiv’14]
Sumber: Hung-yi Lee, Deep Learning Tutorial
33. ADAPTIVE
LEARNING
RATE
www.its.ac.id INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
parameter learning rate
𝑤𝑡+1 ← 𝑤𝑡 − ߟ𝑤𝑔𝑡
konstanta
𝜽𝒕
← 𝜽𝒕−𝟏
− 𝜼𝜵𝑪 𝜽𝒕−𝟏
Original Gradient Descent
Setiap parameter w
𝑔𝑡 =
𝜕𝐶 𝜃𝑡
𝜕𝑤
ߟ𝑤 =
𝜂
𝑖=0
𝑡
𝑔𝑖 2 Penjumlahan dari derivative
sebelumnya
ADAGRAD
Sumber: Hung-yi Lee, Deep Learning Tutorial
34. Dropout
www.its.ac.id/informatika INSTITUT TEKNOLOGI SEPULUH NOPEMBER, Surabaya - Indonesia
• Dropout adalah cara untuk meregulasi parameter untuk
menghindari over-fitting sehingga model lebih general.
• Umumnya dilakukan pada fully connected layer
• Selama proses training, setiap iterasi sebelum menghitung
gradient
• Setiap neuron diset prosentase dropout p%
Struktur network berubah lebih ringan