SlideShare a Scribd company logo
1 of 5
Kelompok:
- Bunga Amelia Restuputri

115060800111114

- Anis Maulida Dyah Ayu Putri

115060801111087

- Inten Widi P

115060800111001

- Regita Ayu P

115060800111028

2.3 Perceptron
Aturan pembelajaran perceptron adalah aturan belajar yang lebih kuat daripada aturan
Hebb. Biasanya, perceptrons asli memiliki tiga lapisan neuron sensorik unit, Unit associator
membentuk model perkiraan retina. Percepteron sederhana yang digunakan aktivasi biner
untuk unit sensorik dan associator dan aktivasi +1,0, atau -1 untuk unit respon. Sinyal yang
dikirim dari unit associator ke unit keluaran adalah biner (0 atau 1) sinyal. Output dari
perceptron adalah y = f(y_in), dimana fungsi aktivasi adalah

Bobot dari unit associator ke unit respon yang disesuaikan dengan aturan belajar
percepteron. Jaringan akan menghitung respon dari unit output. Jaringan akan menentukan
apakah kesalahan terjadi untuk pola ini. Jaringan tidak membedakan antara kesalahan di
mana output dihitung adalah nol dan target -1, sebagai kebalikan dari kesalahan di mana
output dihitung adalah +1 dan target -1. Dalam kedua kasus ini, tanda kesalahan
menunjukkan bahwa bobot harus diubah ke arah yang ditunjukkan oleh nilai target. Jika
kesalahan terjadi untuk pola input pelatihan tertentu, bobot akan berubah sesuai dengan
rumus:
Dimana t nilai target adalah +1 atau -1 dan α adalah tingkat pembelajaran. Jika kesalahan
tidak accur, bobot tidak akan berubah.
2.3.1 Architecture
Simple Perceptron for pattern classification
Sebagai bukti dari aturan pembelajaran perceptron konvergensi teorema diberikan dalam
bagian 2.3.4 menggambarkan, asumsi input biner tidak diperlukan. Karena hanya bobot dari
unit associator ke unit keluaran dapat disesuaikan, kami membatasi pertimbangan kami ke
jaringan, ditunjukkan pada Gambar 2.14.
2.3.2 Algorithm
Algoritma yang diberikan di sini adalah cocok untuk vektor masukan baik biner atau bipolar,
dengan target bipolar, θ tetap, dan bias disesuaikan. Peran ambang dibahas
mengikutipresentasi dari algoritma. Algoritma ini tidak terlalu sensistive dengan nilai-nilai
awal bobot atau nilai dari nilai learning.
Ambang batas pada fungsi aktivasi untuk unit respon adalah tetap, non nilai negatif θ.
Bentuk fungsi aktivasi untuk unit keluaran adalah sedemikian rupa sehingga ada keragu raguan memisahkan wilayah respon positif dari yang respon negatif.
Perhatikan bahwa disini terdapat satu baris memisahkan, kami memiliki garis yang
memisahkan wilayah respon positif dari wilayah nol respon

Dan garis yang memisahkan wilayah respon negatif dari wilayah nol respon

2.3.3 Aplication
Logic Function
Contoh pada 2.11 perceptron for And function: binary input, dan bipolar target
Pada data training seperti contoh pada 2.6 pada aturan Hebb. Kita mengambil α = 1 dan
mengatur bobot awal dan bias 0. Sementara itu, menggambarkan peran dari ambang batas,
kita menggunakan θ = 2, bobot yang berubah adalah Δw = t(x1,x2, 1) jika error terjadi dan
bernilai 0, maka
Input
(x1 x2

1)

(1

1)

1

Net

Out

Target

Weight
Changes

0

0

1

(1

Pemisah baris akan menjadi

dan

1

Weights
(w1 w2 b)

1)

(0
(1

0
1

0)
1)
Gambar pada figure 2.15 menunjukkan bahwa respon dari jaringan akan benar untuk input
pola pertama. Menampilkan input yang kedua sebagai berikut

Input
(x1 x2

1)

(1

1)

0

Net

Out

Target

Weight
Changes

2

1

-1

(-1

0

Weights
(w1 w2 b)

- 1)

(0
(0

0
1

0)
0)

Pemisah baris akan menjadi

dan

Gambar pada 2.16 menunjukkan espon pada jarigan masih tetap benar untuk poin input
pertama. Menampilkan input ketiga sebagai berikut
Input
(x1 x2

( 01

1)

Net

Out

Target

1)

1

1

-1

Untuk pola data training ke-empat, sebagai berikut

Weight
Changes

Weights
(w1 w2 b)

(0 -1

(0
(0

- 1)

1
0

0)
-1)
Input
(x1 x2

1)

(0

1)

0

Net

Out

Target

Weight
Changes

Weights
(w1 w2 b)

-1

-1

-1

(0

(0
(0

0 0)

0-1)
0 -1)

Response dari semua pola input adalah negatif untuk masing – masing bobot. Namun,
ketika respon untuk pola input (1,1) ialah benar, maka kita belum selesai.
Masa kedua dari data training memiliki bobot update untuk input yang pertama sebagai
berikut
Input
(x1 x2

(1

1

Net

Out

Target

1)

1)

-1

-1

1

Weight
Changes

Weights
(w1 w2 b)

(1

(0
0
(11 0)

1

1)

-1)

Pemisah baris akan menjadi

dan

Gambar pada 2.17 menunjukkan respon jaringan akan benar ketika (t,t)

Untuk input kedua pada masa kedua adalah
Input
(x1 x2

(1

0

Net

Out

Target

1)

1)

1

Pemisah baris akan menjadi

1

-1

Weight
Changes

Weights
(w1 w2 b)

(-1

(11
(0

0-1)

0)
1 -1)
dan

Pada gambar 2.18 menunjukkan
Input
(x1 x2

(01

1)

Net

Out

Target

1)

0

0

-1

Weight
Changes

Weights
(w1 w2 b)

(0 -1

(01
(0

-1)

-1)
0 -2)

More Related Content

Viewers also liked

Bilingualisam
BilingualisamBilingualisam
BilingualisamSZABIST
 
overloaded circuits, why smart people underperform
overloaded circuits, why smart people underperformoverloaded circuits, why smart people underperform
overloaded circuits, why smart people underperformSZABIST
 
Innovationskultur im Konzern verankern - Henning Trill & Christian Beinke
Innovationskultur im Konzern verankern - Henning Trill & Christian BeinkeInnovationskultur im Konzern verankern - Henning Trill & Christian Beinke
Innovationskultur im Konzern verankern - Henning Trill & Christian BeinkeCorporate Startup Summit
 
Blueprints Of Cosmic Consciousness
Blueprints Of Cosmic ConsciousnessBlueprints Of Cosmic Consciousness
Blueprints Of Cosmic ConsciousnessSynncrenicity
 
Key problems of allocation of education responsibilities
Key problems of allocation of education responsibilitiesKey problems of allocation of education responsibilities
Key problems of allocation of education responsibilitiesKostiantyn Gavrylov
 
Corporates lernen von Startups und werden bessere, innovativere Unternehmen –...
Corporates lernen von Startups und werden bessere, innovativere Unternehmen –...Corporates lernen von Startups und werden bessere, innovativere Unternehmen –...
Corporates lernen von Startups und werden bessere, innovativere Unternehmen –...Corporate Startup Summit
 
Įvadas į susietuosius duomenis
Įvadas į susietuosius duomenisĮvadas į susietuosius duomenis
Įvadas į susietuosius duomenisOpen Data Support
 
Education Finance in Transition Countries
Education Finance in Transition CountriesEducation Finance in Transition Countries
Education Finance in Transition CountriesKostiantyn Gavrylov
 
Las Competencias en el ámbito superior universitario
Las Competencias en el ámbito superior universitarioLas Competencias en el ámbito superior universitario
Las Competencias en el ámbito superior universitarioKapy Pm
 
Hrm final presentation
Hrm final presentationHrm final presentation
Hrm final presentationSZABIST
 
MIS in Walmart
MIS in Walmart MIS in Walmart
MIS in Walmart SZABIST
 
Hypotheekbond software passend bij AFM visie "dienstverlening op maat"
Hypotheekbond software passend bij AFM visie "dienstverlening op maat"Hypotheekbond software passend bij AFM visie "dienstverlening op maat"
Hypotheekbond software passend bij AFM visie "dienstverlening op maat"Jeroen Snijder
 
Maltrato am
Maltrato amMaltrato am
Maltrato amdregla
 
соціальні мережі
соціальні мережісоціальні мережі
соціальні мережіMarinka20
 
2 r908 tuấn hùng_số 11 trần đại nghĩa_tel36280688
2 r908 tuấn hùng_số 11 trần đại nghĩa_tel362806882 r908 tuấn hùng_số 11 trần đại nghĩa_tel36280688
2 r908 tuấn hùng_số 11 trần đại nghĩa_tel36280688thanhcong0105
 

Viewers also liked (20)

Bilingualisam
BilingualisamBilingualisam
Bilingualisam
 
overloaded circuits, why smart people underperform
overloaded circuits, why smart people underperformoverloaded circuits, why smart people underperform
overloaded circuits, why smart people underperform
 
Innovationskultur im Konzern verankern - Henning Trill & Christian Beinke
Innovationskultur im Konzern verankern - Henning Trill & Christian BeinkeInnovationskultur im Konzern verankern - Henning Trill & Christian Beinke
Innovationskultur im Konzern verankern - Henning Trill & Christian Beinke
 
Blueprints Of Cosmic Consciousness
Blueprints Of Cosmic ConsciousnessBlueprints Of Cosmic Consciousness
Blueprints Of Cosmic Consciousness
 
Daniel Tillberry's Greatest Strengths
Daniel Tillberry's Greatest StrengthsDaniel Tillberry's Greatest Strengths
Daniel Tillberry's Greatest Strengths
 
Mark Watson's Greatest Strengths
Mark Watson's Greatest StrengthsMark Watson's Greatest Strengths
Mark Watson's Greatest Strengths
 
April Carlock's Greatest Strengths
April Carlock's Greatest StrengthsApril Carlock's Greatest Strengths
April Carlock's Greatest Strengths
 
Benefits management and organisational change
Benefits management and organisational changeBenefits management and organisational change
Benefits management and organisational change
 
Key problems of allocation of education responsibilities
Key problems of allocation of education responsibilitiesKey problems of allocation of education responsibilities
Key problems of allocation of education responsibilities
 
Corporates lernen von Startups und werden bessere, innovativere Unternehmen –...
Corporates lernen von Startups und werden bessere, innovativere Unternehmen –...Corporates lernen von Startups und werden bessere, innovativere Unternehmen –...
Corporates lernen von Startups und werden bessere, innovativere Unternehmen –...
 
Įvadas į susietuosius duomenis
Įvadas į susietuosius duomenisĮvadas į susietuosius duomenis
Įvadas į susietuosius duomenis
 
Education Finance in Transition Countries
Education Finance in Transition CountriesEducation Finance in Transition Countries
Education Finance in Transition Countries
 
Las Competencias en el ámbito superior universitario
Las Competencias en el ámbito superior universitarioLas Competencias en el ámbito superior universitario
Las Competencias en el ámbito superior universitario
 
Hrm final presentation
Hrm final presentationHrm final presentation
Hrm final presentation
 
MIS in Walmart
MIS in Walmart MIS in Walmart
MIS in Walmart
 
Hypotheekbond software passend bij AFM visie "dienstverlening op maat"
Hypotheekbond software passend bij AFM visie "dienstverlening op maat"Hypotheekbond software passend bij AFM visie "dienstverlening op maat"
Hypotheekbond software passend bij AFM visie "dienstverlening op maat"
 
Maltrato am
Maltrato amMaltrato am
Maltrato am
 
соціальні мережі
соціальні мережісоціальні мережі
соціальні мережі
 
2 r908 tuấn hùng_số 11 trần đại nghĩa_tel36280688
2 r908 tuấn hùng_số 11 trần đại nghĩa_tel362806882 r908 tuấn hùng_số 11 trần đại nghĩa_tel36280688
2 r908 tuấn hùng_số 11 trần đại nghĩa_tel36280688
 
Contoh kasus 4
Contoh kasus 4Contoh kasus 4
Contoh kasus 4
 

Similar to Perceptron Sebagai Klasifikator Pola

Similar to Perceptron Sebagai Klasifikator Pola (17)

Supervised Learning
Supervised LearningSupervised Learning
Supervised Learning
 
Pert.10 aritmatika
Pert.10 aritmatikaPert.10 aritmatika
Pert.10 aritmatika
 
19511 19 & 20 jst
19511 19 & 20 jst19511 19 & 20 jst
19511 19 & 20 jst
 
14237 19 & 20 jst
14237 19 & 20 jst14237 19 & 20 jst
14237 19 & 20 jst
 
Metode belajar hebbian supervised
Metode belajar hebbian supervisedMetode belajar hebbian supervised
Metode belajar hebbian supervised
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
 
Analisis komponen utama (Principal Component Analysis)
Analisis komponen utama (Principal Component Analysis)Analisis komponen utama (Principal Component Analysis)
Analisis komponen utama (Principal Component Analysis)
 
Jar perceptron
Jar perceptronJar perceptron
Jar perceptron
 
Pertemuan 11-aritmatika
Pertemuan 11-aritmatikaPertemuan 11-aritmatika
Pertemuan 11-aritmatika
 
Laporan ikb acara 3
Laporan ikb acara 3Laporan ikb acara 3
Laporan ikb acara 3
 
pertemuan-11-jst.ppt
pertemuan-11-jst.pptpertemuan-11-jst.ppt
pertemuan-11-jst.ppt
 
Dkc 2 kelompok 2
Dkc 2 kelompok 2Dkc 2 kelompok 2
Dkc 2 kelompok 2
 
Metode Komputasi "Adaptive Network"
Metode Komputasi "Adaptive Network"Metode Komputasi "Adaptive Network"
Metode Komputasi "Adaptive Network"
 
Analisis fourier-lanjutan
Analisis fourier-lanjutanAnalisis fourier-lanjutan
Analisis fourier-lanjutan
 
Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1
 
Bab i1 kohonen (recovered)
Bab i1 kohonen (recovered)Bab i1 kohonen (recovered)
Bab i1 kohonen (recovered)
 
backpropagation
backpropagationbackpropagation
backpropagation
 

Perceptron Sebagai Klasifikator Pola

  • 1. Kelompok: - Bunga Amelia Restuputri 115060800111114 - Anis Maulida Dyah Ayu Putri 115060801111087 - Inten Widi P 115060800111001 - Regita Ayu P 115060800111028 2.3 Perceptron Aturan pembelajaran perceptron adalah aturan belajar yang lebih kuat daripada aturan Hebb. Biasanya, perceptrons asli memiliki tiga lapisan neuron sensorik unit, Unit associator membentuk model perkiraan retina. Percepteron sederhana yang digunakan aktivasi biner untuk unit sensorik dan associator dan aktivasi +1,0, atau -1 untuk unit respon. Sinyal yang dikirim dari unit associator ke unit keluaran adalah biner (0 atau 1) sinyal. Output dari perceptron adalah y = f(y_in), dimana fungsi aktivasi adalah Bobot dari unit associator ke unit respon yang disesuaikan dengan aturan belajar percepteron. Jaringan akan menghitung respon dari unit output. Jaringan akan menentukan apakah kesalahan terjadi untuk pola ini. Jaringan tidak membedakan antara kesalahan di mana output dihitung adalah nol dan target -1, sebagai kebalikan dari kesalahan di mana output dihitung adalah +1 dan target -1. Dalam kedua kasus ini, tanda kesalahan menunjukkan bahwa bobot harus diubah ke arah yang ditunjukkan oleh nilai target. Jika kesalahan terjadi untuk pola input pelatihan tertentu, bobot akan berubah sesuai dengan rumus: Dimana t nilai target adalah +1 atau -1 dan α adalah tingkat pembelajaran. Jika kesalahan tidak accur, bobot tidak akan berubah. 2.3.1 Architecture Simple Perceptron for pattern classification Sebagai bukti dari aturan pembelajaran perceptron konvergensi teorema diberikan dalam bagian 2.3.4 menggambarkan, asumsi input biner tidak diperlukan. Karena hanya bobot dari unit associator ke unit keluaran dapat disesuaikan, kami membatasi pertimbangan kami ke jaringan, ditunjukkan pada Gambar 2.14.
  • 2. 2.3.2 Algorithm Algoritma yang diberikan di sini adalah cocok untuk vektor masukan baik biner atau bipolar, dengan target bipolar, θ tetap, dan bias disesuaikan. Peran ambang dibahas mengikutipresentasi dari algoritma. Algoritma ini tidak terlalu sensistive dengan nilai-nilai awal bobot atau nilai dari nilai learning. Ambang batas pada fungsi aktivasi untuk unit respon adalah tetap, non nilai negatif θ. Bentuk fungsi aktivasi untuk unit keluaran adalah sedemikian rupa sehingga ada keragu raguan memisahkan wilayah respon positif dari yang respon negatif. Perhatikan bahwa disini terdapat satu baris memisahkan, kami memiliki garis yang memisahkan wilayah respon positif dari wilayah nol respon Dan garis yang memisahkan wilayah respon negatif dari wilayah nol respon 2.3.3 Aplication Logic Function Contoh pada 2.11 perceptron for And function: binary input, dan bipolar target Pada data training seperti contoh pada 2.6 pada aturan Hebb. Kita mengambil α = 1 dan mengatur bobot awal dan bias 0. Sementara itu, menggambarkan peran dari ambang batas, kita menggunakan θ = 2, bobot yang berubah adalah Δw = t(x1,x2, 1) jika error terjadi dan bernilai 0, maka Input (x1 x2 1) (1 1) 1 Net Out Target Weight Changes 0 0 1 (1 Pemisah baris akan menjadi dan 1 Weights (w1 w2 b) 1) (0 (1 0 1 0) 1)
  • 3. Gambar pada figure 2.15 menunjukkan bahwa respon dari jaringan akan benar untuk input pola pertama. Menampilkan input yang kedua sebagai berikut Input (x1 x2 1) (1 1) 0 Net Out Target Weight Changes 2 1 -1 (-1 0 Weights (w1 w2 b) - 1) (0 (0 0 1 0) 0) Pemisah baris akan menjadi dan Gambar pada 2.16 menunjukkan espon pada jarigan masih tetap benar untuk poin input pertama. Menampilkan input ketiga sebagai berikut Input (x1 x2 ( 01 1) Net Out Target 1) 1 1 -1 Untuk pola data training ke-empat, sebagai berikut Weight Changes Weights (w1 w2 b) (0 -1 (0 (0 - 1) 1 0 0) -1)
  • 4. Input (x1 x2 1) (0 1) 0 Net Out Target Weight Changes Weights (w1 w2 b) -1 -1 -1 (0 (0 (0 0 0) 0-1) 0 -1) Response dari semua pola input adalah negatif untuk masing – masing bobot. Namun, ketika respon untuk pola input (1,1) ialah benar, maka kita belum selesai. Masa kedua dari data training memiliki bobot update untuk input yang pertama sebagai berikut Input (x1 x2 (1 1 Net Out Target 1) 1) -1 -1 1 Weight Changes Weights (w1 w2 b) (1 (0 0 (11 0) 1 1) -1) Pemisah baris akan menjadi dan Gambar pada 2.17 menunjukkan respon jaringan akan benar ketika (t,t) Untuk input kedua pada masa kedua adalah Input (x1 x2 (1 0 Net Out Target 1) 1) 1 Pemisah baris akan menjadi 1 -1 Weight Changes Weights (w1 w2 b) (-1 (11 (0 0-1) 0) 1 -1)
  • 5. dan Pada gambar 2.18 menunjukkan Input (x1 x2 (01 1) Net Out Target 1) 0 0 -1 Weight Changes Weights (w1 w2 b) (0 -1 (01 (0 -1) -1) 0 -2)