Successfully reported this slideshow.

Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)

4,828 views

Published on

  • Be the first to comment

Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)

  1. 1. A supervised backpropagation neural (BPN) network for the determination of blood glucose in diabetic patients. Non- invasive measurement of blood glucose concentration based on reflected laser beam from the index finger has been reported in this paper. This method depends on Helium-Neon (He-Ne) gas laser operating at 632.8 nm wave length. During measurement the index finger is placed in the laser beam transceiver unit, the reflected optical signal is converted into its corresponding electrical signal and UJI COBA PROGRAM MATLAB UNTUK APLIKASI JARINGAN SYARAF TIRUAN BACK PROPAGASI, GENETIK ALGORITMA DAN SOM Tugas Kuliah JARINGAN SYARAF TIRUAN Prof Dr. Ir. Aniati Murni Siti Julaiha / 0906597420 Pasca Sarjana Teknologi Biomedis Universitas Indonesia Desember 2010
  2. 2. JARINGAN SYARAF TIRUAN BACK PROPAGATION Pemilihan Data Set adalah : Building Dataset: Filename: building_dataset Predict the energy usage of a house, based on time of day and various weather variables. An estimator can be found by Fitting the inputs and targets The data set consists of 4209 samples. "buildingInputs" is an 14x4208 matrix, whose rows are: 1-10: Coded day of the week, time of day 11: Temperature 12: Humidity 13: Solar strength 14: Wind "buildingTargets" is a 3x4208 matrix of energy usage. Select Data Inputs 'buildingInputs' is a 14x4208 matrix, representing 4208 samples of 14 elements. Targets 'buildingTargets' is a 3x4208 matrix, representing 4208 samples of 3 elements. Validation and Test Data Training 70% = 2946 Samples Validation 15% = 631 Samples Testing 15% = 631 Samples Tampilan Arsitektur JAringan Syaraf Tiruan Back Propagasi sebagai berikut : Pada Tahap Pembelajaran MATLAB menampilkan informasi sebagai berikut:
  3. 3. Grafik Fungsi Fit tidak dapat ditampilkan karena memiliki banyak dimensi (Kiri) Sedangkan Performasi validasi yang terbaik ditampikan pada posisi epoch tertentu. Grafik fungsi Gradient, Mu dan Validasi ditampilkan sebagai berikut Hasil pada Tahap Pembelajaran adalah sebagai berikut
  4. 4. Hasil pada Tahap Pengujian adalah sebagai berikut • Melakukan training dengan parameter standar (20 hidden layer dan validation+testing masing-masing 15%), kemudian dilakukan retrain. Hasil data Evaluasi ditampilkan dalam bentuk tabel dan grafik berikut ini. TABEL PROSES PEMBELAJARAN KEMBALI/RETRAIN INISIASI RETRAIN KE-1 RETRAIN KE-2 RETRAIN KE- 3 RETRAIN KE- 4 RETRAIN KE- 5 RETRAIN KE- 6 Training Sample 60% Test Sample 20% Validation Sample 20% Hidden Layer 20 20 20 20 20 20 20 Epoch 30 40 40 37 79 58 43 Time 2:12 1:55 2:17 1:54 3:33 3:23 1:59 Performance 0.00195 0.00204 0.00209 0.00202 0.00182 0.00191 0.00198 Gradient 0.0015037 0.00157 0.00162 0.00162 0.000143 0.0000271 0.000186 Mu 0.001 0.001 0.001 0.001 0.001 0.001 0.001 Validation Checks 6 6 6 6 6 6 6 Best Validation Performance 0.0022514 0.002313 5 0.0023045 0.0022528 0.0022715 0.0025001 0.0024506 At Epoch 24 34 34 31 73 52 34 Training Network MSE Training (x e-03) 1.94944 2.04062 2.08627 2.0336 1.82381 1.90512 1.98101 Validation(x e-03) 2.25138 2.31347 2.30449 2.2528 2.27158 2.50014 2.45061 Testing (x-e-03) 2.60895 2.47234 2.3201 2.28487 2.29615 2.26024 2.52013 REGRESION Training (e-01) 8.95489 8.9789 8.98478 8.98551 9.16458 9.09426 8.9554 Validation (e-01) 8.92785 8.73455 8.8322 8.77698 8.8967 8.862889 8.80604 Testing (e-01) 8.66460 8.689776 8.92845 8.90749 8.81149 8.85566 8.73526
  5. 5. REGRESION ON GRAPH Training 0.93621 0.93256 0.93162 0.93385 0.94134 0.9392 0.92281 Validation 0.92923 0.92177 0.92344 0.92705 0.92356 0.91479 0.91701 Testing 0.91145 0.92418 0.92589 0.92494 0.92461 0.9242 0.9286 All 0.92999 0.92864 0.92881 0.93068 0.93453 0.93157 0.93157 TEST NETWORK MSE (e-03) 2.14182 2.1816 2.1769 2.12160 2.00792 2.09584 2.18285 Regresion 0.889384 0.886779 0.894039 0.892827 0.903949 0.895409 0.888017 Graph Plot Regresion 0.92999 0.92864 0.92881 0.93068 0.93453 0.93157 0.9286
  6. 6. Berdasarkan kesimpulan keseluruhan hasil visualisasi data melalui grafik, untuk evaluasi Training kembali (RETRAIN) dari training kembali pertama hingga training kembali ke-6. Performansi Neural Network Back Propagansi menampilkan hasil terbaik pada Training Kembali ke -4 dengan Nilai Tertinggi untuk Regresi pada Masing Masing Tahap Training, Test dan Validasi, begitupula dengan Mean Square Error pada keseluruh tahapan neural network. Dengan adanya peningkatan pada Kriteria performansi ini dapat disimpulkan pembelajaran kembali dapat digunakan hingga tahap tertentu dari suatu sistem neural network. Namun perlu dipertimbangakan waktu yang diperlukan untuk proses iterasi tersebut. Dari tabel terlihat retrain ke-4 menunjukkan waktu terlama untuk proses pembelajarannya.
  7. 7. • Mengubah jumlah hidden layer dan mencatat data validation+testing serta membandingkan dengan hasil yang menggunakan parameter standar hidden layer 20. Hasil data dalam bentuk tabel dan grafik ditampilkan sbb.: TABEL PROSES KOMBINASI LAPISAN TERSEMBUNYI Pada Training Sample 70%, Test Sample 15% dan Validation Sample 15%, dan Retraining ke-4 H.LAYER 17 H.LAYER 18 H.LAYER 20 H.LAYER 25 H.LAYER 29 H.LAYER 31 H.LAYER 35 Epoch 27 77 36 39 49 47 45 Time 2:42 3:29 2:09 2:45 4:31 4:30 5:04 Performance 0.00223 0.00205 0.00205 0.00192 0.00181 0.00179 0.00161 Gradient 0.0017 2.10-e05 0.00122 0.0000868 0.00167 0.0004097 0.00106 Mu 0.001 0.001 0.001 0.001 0.001 0.001 0.001 Validation Checks 6 6 6 6 6 6 6 Best Validation 0.0025899 0.0023569 0.0019696 0.0021054 0.0019822 0.0022049 0.0022626 At Epoch 21 71 30 33 43 47 39 Training Network MSE Training (x e-03) 2.22963 2.04674 2.05253 1.91745 1.80763 1.78554 1.6137 Validation(x e-03) 2.58986 2.35689 1.96958 2.10537 1.98216 2.20488 2.262588 Testing (x-e-03) 2.23414 2.12766 2.1363 1.99433 2.27048 2.13111 2.09133 REGRESION Training (e-01) 8.78368 8.93932 9.00336 9.06653 9.177729 9.1431 9.27237 Validation (e-01) 8.62376 8.89714 9.00212 9.01201 9.04535 8.88268 8.877619 Testing (e-01) 8.77517 8.98813 8.95020 8.95206 8.83472 8.91805 8.94094 REGRESION ON GRAPH Training 0.92615 0.93323 0.93339 0.93695 0.9407 0.94209 0.94772 Validation 0.9215 0.92308 0.93506 0.93193 0.93543 0.92837 0.92582 Testing 0.92487 0.93013 0.92935 0.9372 0.92888 0.92931 0.93194 All 0.92515 0.93122 0.93302 0.93623 0.93805 0.93815 0.94209 TEST NETWORK MSE (e-03) 2.28432 2.10539 2.05265 2.28135 1.90321 1.90024 1.78265 Regresion 0.875725 0.893972 0.899479 0.903991 0.910622 0.90724 0.914878 GraphPlot Regresion 0.92515 0.93122 0.9302 0.93623 0.93805 0.93815 0.94209
  8. 8. Dari grafik data terlihat dengan meningkatnya lapisan tersembunyi yang ditambahkan dari 17 lapisan hingga 35 lapisan , kecenderungan semakin meningkatnya juga performansi neural network, dari nilai MSE yang semakin menurun dan nilai Regresi yang semakin meningkat, walaupun ada sedikit spike (ketidaklinieran) pada beberapa layer . Dan Juga perlu dipertimbangkan peningkatan waktu iterasi yang menyebabkan terlalu lamanya proses pengolahan data ini. Sehingga dapat disimpulkan meningkatnya lapisan tersembunyi meningkatkan performansi Kesalahan MSE dan kelinieran R, namun perlunya mempertimbangkan waktu pemrosesan karena meningkatnya layar tersembunyi meningkatkan juga waktu proses pembelajaran. • Mengubah kombinasi data sampel, training-test dan validasi serta membandingkan dengan hasil yang menggunakan parameter standar yaitu 70%-15%-15%. Hasil data dalam bentuk tabel dan grafik ditampilkan sbb.: TABEL PROSES KOMBINASI TRAINING-TEST-VALIDATION SAMPLE PADA HIDDEN LAYER 20 Training Sample 50% 60% 65% 70% 80% 90% Test Sample 25% 20% 20% 15% 10% 5% Validation Sample 25% 20% 15% 15% 10% 5% Epoch 25 35 43 36 47 68 Time 1:03 1:46 2:06 2:09 2:57 4:31 Performance 0.00196 0.00188 0.00215 0.00205 0.00205 0.00189 Gradient 0.000929 0.000214 0.00100 0.00122 0.0000365 0.000504 Mu 0.001 0.001 0.00100 0.001 Validation Checks 6 6 6 6 Best Validation 0.00092925 0.0023938 0.0023879 0.0019696 0.0024673 0.0018872 At Epoch 25 29 37 30 41 062 Training Network MSE Training (x e-03) 1.96462 1.87736 2.15156 2.05253 2.05351 1.88907 Validation(x e-03) 2.39600 2.39380 2.38789 1.96958 2.45729 1.88717 Testing (x-e-03) 2.49869 2.38895 2.27772 2.1363 2.32684 2.36848 REGRESION Training (e-01) 8.99714 9.07348 8.91920 9.00336 8.97664 9.12997 Validation (e-01) 8.81271 8.72533 8.81281 9.00212 8.70529 8.97815
  9. 9. Testing (e-01) 8.67510 8.70330 8.82768 8.95020 8.76487 8.65730 REGRESION ON GRAPH Training 0.93456 0.93925 0.92994 0.93339 0.93287 0.93877 Validation 0.92512 0.91965 0.92239 0.93506 0.91724 0.93425 Testing 0.9173 0.92215 0.924 0.92935 0.92617 0.92198 All 0.92782 0.932 0.9276 0.93302 0.93065 0.93772 TEST NETWORK MSE (e-03) 2.20598 2.08306 2.21224 2.05265 2.12225 1.91290 Regresion 0.886741 0.893198 0.888435 0.899479 0.892917 0.909726 GraphPlot Regresion 0.92782 0.932 0.9276 0.9302 0.93065 0.93772 Dari grafik data terlihat bahwa pada training sample 70% menunjukkan puncak/klimaks performansi dari jaringan saraf back propagasi baik dari tahap pengujian dan tahap validasi, dengan nilai error terkecil dan juga nilai Regresi keliniearan tertinggi, namun pada tahap pembelajaran, kombinasi sample 60% juga menunjukkan performansi lebih baik. Sehingga perlu dipertimbangkan kombinasi antara 60% dan 70% untuk training sample ini.
  10. 10. JARINGAN SYARAF TIRUAN GENETIK ALGORITMA Membandingkan hasil nilai Filter atau penyaringan antara program dengan filter standar yang bernilai 0 dengan parameter nilai lain yaitu 1 dan 2. Sedangkan parameter lainnya adalah tetap sesuai standar. Parameter yang diubah: • filter_flag pada main.m, nilai yg mungkin adalah 0, 1, dan 2 KOMBINASI NILAI FILTER/PENYARINGAN JARINGAN SYARAF GENETIK ALGORITMA FILTER FLAG = 0 = Standar FILTER FLAG = 1 FILTER FLAG = 2
  11. 11. Filter flag merupakan perintah dalam penggunaan filter atau penyaringan terhadap noise atau gangguan. Dari syntax diketahui Median filter digunakan bila filter flag adalah 1 dan Wiener filter digunakan bila filter flag bernilai 2. % median filter if(filter_flag == 1) I = medfilt2(I); % wiener filter elseif(filter_flag == 2) I = wiener2(I); End Hasil dari perbedaan nilai Filter ini menunjukkan terjadinya perbedaan nilai skala keabuan. Pada penggunaan filter median (filter flag =1 ) terlihat pada dokumen dengan tipe karakter yang berasal dari mesin ketik, adanya perubahan pada nilai brightess atau pencahayaan yang menjadi lebih terang, namun juga terlihat pengaburan pada karakter karakter alfabetnya sehingga tulisan menjadi sulit terbaca. Nilai skala keabuan yang dihasilkan tidak menjadikannya lebih baik dari penggunaan filter flag=0. Sedangkan pada dokumen dengan tipe karakter yang berasal dari tulisan tangan kuno penggunaan filter median ini juga mengubah skala kekaburan (pengaburan) karakter alphabet sehingga tulisan juga menjadi kabur dan sulit terbaca dibandingkan pada penggunaan filter standar (filter flag = 0). Peningkatan skala keabuaan dan pencahayaan/brightess pada latar belakang juga menjadikan ketidakseragam skala keabuaan pada latar belakang terutama pada dokumen berkarakter tulisan tangan. Penggunaan Filter Median tidak lebih baik dari dari filter standar. Hasil dari penggunaan filter Wiener (Filter flag =2 ) juga menunjukkan pengaburan karakter alfabet pada dokumen berkarakter mesin tik, tidak terlalu berpengaruh dalam kontras karakter alfabet pada dokumen bertulisan tangan (dokumen no. 2), namun sangat mengaburkan pada dokumen bertulisan tangan no.3 dibandingkan filter standar. Skala keabuaan latar belakang juga menunjukkan ketidak seragaman terutama pada dokumer berkarakter tulisan tangan no.3. Filter wiener ini tidak dapat memberikan keseragaman hasil pada jenis karakter yang berbeda. Filter Wiener lebih baik digunakan dibandingkan filter median, namun tidak menjadikan pilihan dibandingkan penggunaan filter standar.
  12. 12. • Menjalankan program dengan parameter standar yang sudah diset pada kode program, dan mengubah paramater jumlah iterasi yang harus dilakukan oleh program dan membandingkan hasilnya. Parameter yang diubah adalah nilai pada perintah syntax count yaitu pada count 4, 5 dan 7 dibandingkan sedangkan nilai parameter lain sesuai dengan syntax standar pada count 6. Nilai 6 pada count < 6 yang ada di ga_enh.m, adalah integer positif  menentukan jumlah iterasi yang harus dilakukan oleh program. KOMBINASI ITERASI PADA JARINGAN SYARAF GENETIK ALGORITMA KOMBINASI ITERASI/COUNT COUNT 4 COUNT 5 COUNT 6 = Standar COUNT 7
  13. 13. Hasil dari perbedaan jumlah iterasi yang dilakukan oleh program Matlab ini menunjukkan semakin meningkatnya nilai iterasi meningkatkan juga nilai kontras karakter alfabet pada dokumen berkarakter alphabet mesin tik (no.1) maupun pada dokumen berkarakter
  14. 14. tulisan tangan (no.2 dan 3), terutama terlihat pada iterasi rendah yaitu Count 4 dengan dokumen berkarakter tulisan tangan no.3 . Skala nilai keabuan alphabet ditingkatkan sehingga performansi alphabet karakter tulisan tangan sedikit meningkat. Skala keabuaan pada latar belakang dokumen 1 berkarakter mesin tik dan dokumen tulisan tangan juga menjadi lebih homogen seiring dengan meningkatnya nilai iterasi, namun terlihat perbedaan pada dokumen dengan iterasi standar (count 6) dibandingkan nilai iterasi lainnya, dimana terlihat perbedaan skala keabuaan pada iterasi standar menghasilkan kejelasan pencahayaan pada latar belakang. Namun meningkatnya tingkat iterasi juga perlu menyembabkann faktor lamanya pemrosesan pada program Matlab, menjadikan tidak efisien dalam waktu pemrosesan. Sehingga perlu menjadi pertimbangan dalam penentuan nilai iterasi yang besar terhadap waktu proses.
  15. 15. • Menjalankan program dengan parameter standar yang sudah diset pada kode program, dan mengubah parameter probabilitas terjadi crossover atau rekombinasi pada parent dan membandingkan hasilnya. Parameter yang diubah adalah nilai pada perintah syntax pc yaitu pada perintah nilai 0.8 pada pc = floor(0.8 * n/2) yang ada di ga_enh.m, nilai yg mungkin adalah 0 sampai 1  dan perubahan dilakukan pada nilai probabilitas cross over 0.1 , 0.5 dan maksimal 1, sedangkan nilain parameter lainnya adalah tetap sesuai dengan parameter standar pada pc =0.8. KOMBINASI NILAI PROBABILITAS CROSS OVER PADA JARINGAN SYARAF GENETIK ALGORITMA PC = 0.1 PC = 0.5 PC = 0.6 PC = 0.8 = standar PC = 1
  16. 16. Hasil dari perbedaan nilai parameter probabilitas yang terjadi pada rekombinasi parent (cross section ) menunjukkan hasil peningkatan kejelasan karakter alphabet maupun kontras pada dokumen berkarakter mesin tik maupun tulisan tangan, seiring dengan meningkatnya nilai probabilitas cross over. Pada dokumen berkarakter tulisan mesin tik terlihat nilai standar yang ditetapkan pada Probabilitas cross over 0.8 memberikan hasil yang terbaik pada penampakan karakter alphabet maupun latar belakang dokumen yang jelas, demikian juga pada dokumen berkarakter tulisan tangan baik pada dokumen 2 maupun dokumen 3. Terlihat penghapusan latar belakang dokumen menjadi lebih homogen dengan penambahan skala abu yang menjadikan latar belakang pada dokumen no. 3. Selain itu juga terlihat kontras alphabet pada dokumen yang lebih jelas dibandingkan dengan probabilitas cross over yang lain. Skala probabilitas dengan penampilan terburuk terlihat pada skala pc = 0.6 dimana terjadi pengkaburan skala abu baik pada latar belakang maupun karakter tulisan, menjadikan tulisan terlihat kabur dan tidak homogen serta banyaknya gangguan yang tidak dihilangkan.
  17. 17. • Menjalankan program dengan parameter standar yang sudah diset pada kode program, dan mengubah parameter probabilitas terjadinya mutasi pada indivu dan membandingkan hasilnya. Parameter yang diubah adalah nilai pada perintah syntax pm yaitu pada perintah nilai 0.1 pada pada pm = floor(0.1 * n), ga_enh.m, nilai yg mungkin adalah 0 sampai 1 yang menentukan probabilitas terjadinya mutasi. Perubahan dilakukan pada nilai probabilitas mutasi 0.5 , 0.6 dan 1. Sedangkan parameter lainnya tidak berubah sesuai dengan parameter standar pada PM = 0.1. KOMBINASI NILAI PROBABILITAS MUTASI PADA JARINGAN SYARAF GENETIK ALGORITMA PM = 0.1 = Standar PM = 0.5 PM = 0.6 PM = 1
  18. 18. Hasil yang diperoleh pada kombinasi nilai probabilitas mutasi pada citra memperlihatkan, pada dokumen berkarakteristik tulisan tangan maupun ketik, probabilitas mutasi standar 0.1 memperlihatkan hasil yang terbaik dibandingkan probabilitas mutasi lainnya, ini terlihat dari penghilangan gangguan pada latar belakang yang memperlihatkan kehalusan nilai skala keabuan pada latar belakang, tanpa menyebabkan pengaburan karakter alphabet pada dokumen. Memperjelas konstas alphabet pada dokumen tulisan tanpa pengurangan skala keabuan pada latar belakang yang tidak homogeny dan tanpa memgaburkan karakter alphabet atau tulisannya. Probabilatas mutasi standar 0.1 memperlihatkan hasil yang lebih baik pada variasi karakteristik ketiga dokumen ini. Dari keseluruhan percobaan mengkombinasikan parameter parameter yang berpengaruh pada hasil citra dokumen kuno dengan menggunakan metode jaringan syaraf tiruan Genetik Algoritma dapat disimpulkan parameter probabilitas standar yang telah diberikan pada pemograman Jaringan Syaraf buatan Genetik Algoritma ini adalah parameter yang optimum untuk mendapatkan hasil pencitraan dokumen kuno dengan karakteristik mesin tik dan tulisan tangan, yaitu pada probabilitas cross over = pc = 0.8, probabilitas mutasi = pm = 0.1 , Jumlah iterasi = count = 6, dan Penggunaan filter atau penyaringan standar dengan nilai filter flag = 0.
  19. 19. JARINGAN SYARAF TIRUAN SELF-ORGANIZING MAPS Simulasi Jaringan Syaraf tiruan Self Organizing Maps/SOM memperlihatkan proses visuali SOM untuk klaster atau klasifikasi data. Proses dimulai dengan pemetaan sejumlah data pembelajaran dari vector yang sejenis. Pemetaan data menunjukkan hubungan antara vector data dengan proses iniliasi pemetaan dilakukan secara random dari bentuk peta yang tidak beraturan dan panduan training data, hingga menghasilkan peta proses pembelajaran yang selanjutnya menghasilkan peta keluaran yang telah teratur. Proses pembelajaran sendiri adalah proses kompetisi dari vector prototype yang sejenis menjadi vector data yang dimodifikasi sehingga menjadi lebih serupa dengannya. Peta mempelajari posisi pada data yang tidak teratur dan pada proses pembelajaran selanjutnya, bukan hanya vector prototype yang sejenis, namun juga vector tetangga yang ada pada peta bergerak menuju data vector training dan mengatur dirinya sendiri sehingga menghasilkan pola peta yang teratur dan terbagi dalam klaster sesuai dengan karakteristiknya. Bentuk 3 Dimensi memberi kemudahan dalam mealokasi keseluruhan data dalam suatu ruangan. Penggambaran Tiga dimensi memberikan hasil visualisasi yang lebih memperlihatkan daerah daerah klaster sesuai klasifikasinya. =====================================================================================================================================================

×