Dokumen tersebut membahas tentang algoritma covering dan penerapannya dalam klasifikasi teks. Algoritma covering dapat digunakan untuk membentuk aturan klasifikasi berdasarkan nilai maksimal atribut. Jurnal lain membahas algoritma baru yaitu Cross Covering Algorithm Based on Simulated Annealing (SACCA) yang menggabungkan algoritma covering dan simulated annealing untuk mencari pusat domain yang lebih optimal dengan akurasi yang lebih tinggi. Hasil penelitian menunjukkan bahwa S
Ppt sidang 4 september 2017 sesi 2 nita tri andiniNita NTD
Neural network telah banyak dipergunakan dalam menyelesaikan pemasalahan data science dan statistika, seperti pattern recognition dan prediksi. Neural network pun banyak dikembangkan oleh peneliti untuk penggunaan dalam bidang statistik yaitu klasifikasi dan prediksi.Salah satu bentuk arsitektur neural network adalah Multilayer Perceptron (MLP). MLP memiliki tiga tipe lapisan (layer) yaitu input,hidden, dan output layer. Penggunaan neural network bergantung pada arsitektur neural network, fungsi transfer atau aktivasi, dan nilai weights. Di dalam neural network sendiri terdapat algoritme pelatihan yaitu backpropagation (BP) . BP memiliki kekurangan yaitu terjebak di loca minima dan slow convergence. Peneliti-peneliti menyarankan penggunaan algoritme optimasi sebagai ganti algoritme BP dalam pelatihan neural network. Algoritme optimasi dapat mengatasi kelemahan BP. Salah satu algoritme optimasi yang dipergunakan adalah Particle Swarm Optimization (PSO). PSO merupakan algoritme optimasi pencarian solusi dengan mengadaptasi fenomena kawanan hewan, yaitu perilaku sekelompok burung dan ikan dalam pencarian makanan. Penelitian ini melakukan perbandingan MLP dengan menggunakan PSO dan BP untuk kasus klasifikasi biner. Perbandingan tersebut dihasilkan bahwa MLP-PSO menghasilkan ukuran pembanding yang lebih baik dari BP, kecuali pada running time. Running time MLP-PSO lebih lama dibanding MLP-BP.
Neural network has been used for solving data science and statistic problems, such as pattern recognition and prediction. Neural network has been developed by researchers for stastical cases such as classification and prediction. One of neural network’s architectures is Multilayer Perceptron (MLP) which one of types’ architecture has been commonly used. Multilayer perceptron had three types layer, those are input layer, hidden layer, and output layer. Using neural network depends on architecture itself, tranfers or activation function, and weights. there is training algorithm In neural network that is backpropagation(BP). BP has flaws that are stucked in loca minima and slow convergence. Many researchers have researched using optimization algorithms as substitute of backpropagation in training neural network. One of optimization algorithms is Particle Swarm Optimization, that convinced to handle the flaws of backpropagation. Particle Swarm Optimization is solving searching solution by adapting animal’ swarm phenomenons which adapted behaviors of a flock of birds or fish in food searching. This research discuss about comparison of MLP training using PSO with MLP training using BP in biner classification cases. The result denoted that result of MLP-PSO measurements of comparison values is better than MLP-BP, except for running time. Running time MLP-PSO took longer than MLP-BP.
Ppt sidang 4 september 2017 sesi 2 nita tri andiniNita NTD
Neural network telah banyak dipergunakan dalam menyelesaikan pemasalahan data science dan statistika, seperti pattern recognition dan prediksi. Neural network pun banyak dikembangkan oleh peneliti untuk penggunaan dalam bidang statistik yaitu klasifikasi dan prediksi.Salah satu bentuk arsitektur neural network adalah Multilayer Perceptron (MLP). MLP memiliki tiga tipe lapisan (layer) yaitu input,hidden, dan output layer. Penggunaan neural network bergantung pada arsitektur neural network, fungsi transfer atau aktivasi, dan nilai weights. Di dalam neural network sendiri terdapat algoritme pelatihan yaitu backpropagation (BP) . BP memiliki kekurangan yaitu terjebak di loca minima dan slow convergence. Peneliti-peneliti menyarankan penggunaan algoritme optimasi sebagai ganti algoritme BP dalam pelatihan neural network. Algoritme optimasi dapat mengatasi kelemahan BP. Salah satu algoritme optimasi yang dipergunakan adalah Particle Swarm Optimization (PSO). PSO merupakan algoritme optimasi pencarian solusi dengan mengadaptasi fenomena kawanan hewan, yaitu perilaku sekelompok burung dan ikan dalam pencarian makanan. Penelitian ini melakukan perbandingan MLP dengan menggunakan PSO dan BP untuk kasus klasifikasi biner. Perbandingan tersebut dihasilkan bahwa MLP-PSO menghasilkan ukuran pembanding yang lebih baik dari BP, kecuali pada running time. Running time MLP-PSO lebih lama dibanding MLP-BP.
Neural network has been used for solving data science and statistic problems, such as pattern recognition and prediction. Neural network has been developed by researchers for stastical cases such as classification and prediction. One of neural network’s architectures is Multilayer Perceptron (MLP) which one of types’ architecture has been commonly used. Multilayer perceptron had three types layer, those are input layer, hidden layer, and output layer. Using neural network depends on architecture itself, tranfers or activation function, and weights. there is training algorithm In neural network that is backpropagation(BP). BP has flaws that are stucked in loca minima and slow convergence. Many researchers have researched using optimization algorithms as substitute of backpropagation in training neural network. One of optimization algorithms is Particle Swarm Optimization, that convinced to handle the flaws of backpropagation. Particle Swarm Optimization is solving searching solution by adapting animal’ swarm phenomenons which adapted behaviors of a flock of birds or fish in food searching. This research discuss about comparison of MLP training using PSO with MLP training using BP in biner classification cases. The result denoted that result of MLP-PSO measurements of comparison values is better than MLP-BP, except for running time. Running time MLP-PSO took longer than MLP-BP.
Data mining merupakan rangkaian dari proses pencarian pengetahuan database yaitu knowledge discovery in database dengan teknik integrasi dan penemuan ilmiah, interpretasi dan visualisasi dari pola-pola sejumlah kumpulan data.
ppt profesionalisasi pendidikan Pai 9.pdfNur afiyah
Pembelajaran landasan pendidikan yang membahas tentang profesionalisasi pendidikan. Semoga dengan adanya materi ini dapat memudahkan kita untuk memahami dengan baik serta menambah pengetahuan kita tentang profesionalisasi pendidikan.
1. TUGAS DATA MINING
Algoritma Covering dan Penerapannya
Khairul Sani ( 13/359750/PTK/9462)
Syamsul Mujahidin (13/359465/PTK/9440)
S2 Teknologi Informasi
Teknik Elektro dan Teknologi Informasi
Universitas Gadjah Mada
Dalam teknik klasifikasi ada banyak pendekatan yang dapat dilakukan, antara lain separate and conquer, divide and conquer, dan covering and statistical. Algoritma covering memiliki karakteristik yaitu mepertimbangkan hubungan antara nilai atribut dan spesifikasi klasifikasinya. Algoritma ini akan mengklasifikasi data berdasarkan nilai maksimal dari tiap kemungkinan nilai atribut. Nilai maksimal antribut didapat dari banyak data dalam tiap katagori dibagi dengan banyak data keseluruhan. Prolehan nilai maksimal dari tiap atribut kemudian akan dikombinasikan. Hasil yang didapatkan berupa kumpulan aturan-aturan dari atribut yang diproses.
Algortima ini digunakan karena memiliki tingkat akurasi yang bagus, daya belajar yang cepat, kapasitas dalam hal proses data secara masif, dan kemudahan dalam menganalisis aturan-aturan yang dibentuk sehingga sering digunakan untuk menangani kasus tertentu. Salah satu bentuk penerapan dari algoritma covering adalah penangan pada masalah klasifikasi teks. Klasifikasi teks merupakan kegiatan mengurutkan kumpulan dokumen secara otomatis ke dalam kategori yang sudah didefinisikan. Dalam hal ini metode yang biasa digunakan adalah metode machine learning dan statistical learning. Metode tersebut memiliki keunggulan efektif dalam menangani noise data. Namun demikian, algoritma ini masih lemah dalam hal pembentukan aturan-aturan yang kuat dari domain pengetahuan sehingga digunakanlah algoritma covering untuk mengatasi masalah tersebut.
Prosedur dari algoritma covering untuk mengatasi masalah klasifikasi teks adalah ekstrasi dari sejumlah prase yang akan menjadi calon aturan. Kemudian
2. melakukan klasifikasi terhadap prase tersebut, apakah masuk dalam sempel positif atau negatif. Sempel positif akan dimaksukkan dalam data latihan, sementara negatif sempel akan dibuang. Masing - masing data training (prase) akan dihitung frekuensi kenampakannya dalam dokumen kemudian dibagi dengan jumlah dokumen yang ada. Nilai maksimum dari perhitungan tersebut akan digunakan sebagai dasar untuk membentu aturan - aturan. Aturan – aturan tersebut nantinya akan digunakan untuk klasifikasi teks pada data yang baru.
Pada jurnal lainnya yang berjudul Cross Covering Algorithm Based on Simulated Annealing mendeskripsikan terkait algoritma untuk untuk optimisasi yang bersifat generic. Simulated annealing (SA) adalah salah satu algoritma untuk untuk optimisasi yang bersifat generik. Berbasiskan probabilitas dan mekanika statistik, algoritma ini dapat digunakan untuk mencari pendekatan terhadap solusi optimum global dari suatu permasalahan. Masalah yang membutuhkan pendekatan SA adalah masalah-masalah optimisasi kombinatorial, di mana ruang pencarian solusi yang ada terlalu besar, sehingga hampir tidak mungkin ditemukan solusi eksak terhadap permasalahan itu. Publikasi tentang pendekatan ini pertama kali dilakukan oleh S. Kirkpatrick, C. D. Gelatt dan M. P. Vecchi, diaplikasikan pada desain optimal hardware komputer, dan juga pada salah satu masalah klasik ilmu komputer yaitu Traveling Salesman Problem. Annealing adalah satu teknik yang dikenal dalam bidang metalurgi, digunakan dalam mempelajari proses pembentukan kristal dalam suatu materi. Agar dapat terbentuk susunan kristal yang sempurna, diperlukan pemanasan sampai suatu tingkat tertentu, kemudian dilanjutkan dengan pendinginan yang perlahan-lahan dan terkendali dari materi tersebut. Pemanasan materi di awal proses annealing, memberikan kesempatan pada atom-atom dalam materi itu untuk bergerak secara bebas, mengingat tingkat energi dalam kondisi panas ini cukup tinggi. Proses pendinginan yang perlahan-lahan memungkinkan atom-atom yang tadinya bergerak bebas itu, pada akhirnya menemukan tempat yang optimum, di mana energi internal
3. yang dibutuhkan atom itu untuk mempertahankan posisinya adalah minimum, Metropolis et al. pada tahun 1953.
Profesor Zhang menyatakan bahwa arti geometri M-Ps neuron, dan menunjukkan bahwa tiga lapis saraf pada jaringan untuk membangun classifier yang sama dengan mencari dan mengumpulkan domain yang mampu untuk dipartisi dari berbagai jenis masukan seperti vektor, dan disediakan covering algoritma yang lebih lanjut: Inti dari covering algoritma adalah menggunakan covering domain sebagai lapisan tersembunyi dari tiga lapisan jaringan saraf, yang diinput pada lapisan sampel set, hasil output berdasarkan hasil klasifikasi. Oleh karena itu, keutamaan dari covering algoritma adalah untuk membangun covering cluster. Adapun konsep dari covering model sebagai berikut :
Pada penelitian tersebut menggunakan suatu algoritma covering karena memiliki kecepatan lebih rendah, dengan kompleksitas lebih rendah, tetapi dengan presisi yang tinggi. Tetapi pada construction berat pusat neuron biasanya domainnya memiliki kriteria sendiri, dan tidak dapat mengikuti distribusi sample untuk mencapai solusi yang omptimal. Pada penelitian tersebut membuat suatu algoritma baru menggabungkan antara cross covering algorithm dan penyajian dalam simulated annealing. Pada tahapan ini didapat pusat covering berdasarkan pencarian teori simulasi annealing. Hasil penelitian ini menampilkan algoritma dapat mengurangi jumlah dari covering dengan pengenalan akurasi yang lebih tinggi.
4. Pada penelitian ini untuk mengevaluasi kinerja algortima, mengambil empat data set dari University of california untuk repository mechine learning yang diterapkan.
Dalam simulasi komputer, semua nilai atribut dalam set data linear berubah menjadi interval satuan. Dengan demikian, kita dapat menangani setiap set data sebagai masalah klasifikasi pola dalam n-dimensi satuan kubus [0,1] n. Pada exsperiment ini menggunakan sepuluh kali lipat crossvalidation (10-CV) teknik untuk setiap data set 10 kali, dengan menggunakan partisi yang berbeda dari kumpulan data. Dalam 10-CV, kumpulan data dibagi menjadi 10 subset dari ukuran yang sama. Sembilan subset digunakan sebagai pola pelatihan, dan bagian lainnya digunakan sebagai pola uji. Hasilnya ditunjukkan pada Gambar dibawah. Akurasi pengenalan pada Gambar dibawah ini menunjukan rata-rata dari sepuluh kali pelatihan dan pengujian.
Hal ini dapat dilihat dari Gambar tersebut bahwa akurasi pengenalan rata-rata Sacca jelas lebih baik daripada CCA dan LIBSVM. Terutama pada dataset Kaca, kinerja Sacca ditingkatkan 9.55 poin persentase dari CCA, dan 10.91 persen dibanding classifier LIBSVM terkenal. Ini menunjukkan bahwa dengan titik yang mendapatkan dari penelusuran dari teori simulated annealing untuk pusat meliputi bisa memberikan perintah yang lebih baik untuk studi sampel, dan membuat pusat sampel keterwakilan sehingga domain meliputi dapat mencakup informasi lebih lanjut tentang predikasi. Pada penelitian mendapatkan kesimpulan dari data publik
5. hanya set, pada percobaan berikutnya, kita akan membuktikan algoritma praktis meskipun memilih data yang memiliki nilai lebih praktis. Dengan menggunakan data, kita akan menunjukkan keuntungan dari Sacca dalam aplikasi praktis.
Gambar : results for LIBSVM, CCA and SACCA
Kesimpulan:
Dalam jurnal tersebut, konstruktif algoritma, cross covering algoritma dan berdasarkan simulasi annealing (Sacca) menunjukkan, hasil pada beberapa UCI database dan teks kategorisasi menunjukkan bahwa Sacca adalah performas yang bagus untuk classifier. Dapat digunakan simulasi annealing algoritma untuk mencari pusat covering, secara efektif dapat meningkatkan daerah covering serta mengurangi jumlah covering.
Algoritma ini mengurangi kompleksitas dan meningkatkan kemampuan generalisasi dan menjaga kinerja pada tingkat tinggi. Penelitian tersebut dapat digunakan pada search enggine untuk melakukan penelitian serta pengembangan pada masa depan.
6. Referensi :
[1] Cheng-Gang He, Yan-ping Zhang, Hui Sun, and Jin-Wei Gen, “A Novel Regression Method Research Based on Covering Algorithm,” Intell. Inf. Process. Trust. Comput. IPTC 2010 Int. Symp. On, pp. 41–44, Oct. 2010.
[2] Jin-Hong Liu and Yu-Liang Lu, “Strong Rules Learning Algorithm for Ensemble Text Classification,” Mach. Learn. Cybern. 2007 Int. Conf. On, vol. 6, pp. 3601– 3606, Aug. 2007.
[3] Zhang Yanping , Liu Chao,"Cross covering algoritma based on Simulated annealing," School of Computer Science and Technology, Anhui University, Hefei, China,2010.