1. Principles Of Artificial Neural Network
Chapter 3
(Basic Principles of ANNs and Their Early Structures)
2. Basic Principles of ANN Design
Prinsip-prinsip dasar dari Artificial Neural Network(ANNs) yaitu
Prinsip dasar Artificial Neural Network yang diformulasikan oleh McCulloch dan Pitts pada
tahun 1943 yaitu ada 5 asumsi sebagai berikut :
1. Aktivitas di dalam sebuah neuron (ANN) bersifat all-or-nothing.
2. Untuk membuat neuron memancarkan sinyal (aktif) diperlukan sejumlah sinapsis
yang mengeksitasi neuron dalam jangka waktu tertentu.
3. Sejumlah sinapsis mampu menghambat neuron untuk aktif (inhibitory).
4. Adanya delay dalam sistem syaraf yang disebabkan oleh sinapsis delay.
5. Struktur jaringan interkoneksi tidak berubah dari waktu ke waktu.
Kemudian Hebbian Learning Law (Hebbian Rule) yang diformulasikan Donald Hebb pada
tahun 1949 yang juga prinsip ANNs yang sudah digunakan secara meluas. Sebuah postulat
yang dikenal dengan metode belajar hebb yaitu :
"Jika akson sebuah sel A cukup dekat untuk bisa mengeksitasi sel B dan secara berulang atau
terus menerus melakukan penembakan, beberapa proses atau perubahan metabolisme akan
terjadi pada satu atau kedua sel, sehingga efisiensi sel A, sebagai salah satu sel penembak B,
akan meningkat."
3. Cont(Hebbian rules)...
Postulat ini diusulkan sebagai mekanisme fisik untuk proses pembelajaran
pada tingkat selular. Walaupun Hebb tidak pernah memberikan bukti fisiologis
yang signifikan mengenai teorinya, namun penelitian-penelitian selanjutnya
menunjukkan bahwa sejumlah sel menunjukkan pola belajar Hebbian.
4. Basic Network Structures lainnya yaitu :
1. Sejarahnya, ANNs yang lebih awal adalah Perceptron yang diusulkan oleh psikolog
Frank Rosenblatt (Psychological Review, 1958).
2. The Artron (Statistical Switch-based ANN) due to R. Lee (1950).
3. The Adaline (Adaptive Linear Neuron. B. Widrow, 1960). Ini artificial neuron adalah juga
dikenal ALC (Adaptive Linear Combiner), the ALC adalah prinsip komponen, sebuah single
neuron, tidak sebuah jaringan.
4. The Madaline (Many Adaline), juga di kemukakan Widrow (1988), ini adalah sebuah ANN
(network) formulasi dasar dari Adaline diatas.
Empat prinsip neuron diatas, terutama Perceptron, umumnya Perkembangan ANN.
Ada 3 fundamental networks yaitu :
5. The Back-Propagation network | sebuah multi layer Perceptron-based ANN, memberikan
solusi pada pembelajaran hidden-layer (Rumelhart et al, 1986 )
6. The Hopeld Network, di formulasikan John Hopeld (1982).
7. The Counter-Propogation Network (Hecht-Nielsen, 1987) | dimana kohonen Self-
Organizing Mapping (SOM) adalah digunakam untuk memfasilitasi belajar yang terawasi
(absence of a teacher).
5. The Perceptron's Input-Output Principles
Perceptron, yang secara historis merupakan awal artificial neuron yang dikemukakan [Rosenblatt, 1958]. Perceptron
merupakan mengklasifikasikan suatu pola tipe tertentu yang sering dikenal dengan pemisahan secara linear. Dapat
digunakan dalam kasus untuk mengenali fungsi logika “AND” dengan masukan dan keluaran bipolar.
Aturan Untuk Input dan Output
Gambar Perceptron's schematic input/output structure.
6. The Adaline (ALC)
The Adaline (Adaptive Linear Neuron) dikemukakan oleh B. Widrow tahun 1960 yaitu struktur dasar
secara bipolar .
Aturan untuk Input/Node, dimana :
Dimana Wo adalah bias
Menghasilkan Adaline Output y yaitu :
y= sign(z) yaitu mengembalikan ukuran array Y sama sebagai X , dimana elemen Y adalah:
1 jika elemen z lebih besar dari 0
0 jika elemen z sama dengan 0
-1 jika element z lebih kecil dari 0
Editor's Notes
Fungsi yang digunakan untuk mengubah tingkat aktivasineuronke sinyal output.Biasanya, fungsi aktivasi memiliki "squashing" efekFn (fungsi neuron)
fungsi matematika tanda dari bilangan real. Untuk menghindari kebingungan dengan fungsi sinus, fungsi ini sering disebut fungsi signum (dari signum, bahasa Latin untuk “sign").In mathematical expressions the sign function is often represented as sgn