Multi Layer Perceptronの設定
21
yk
tk
k
j
wkj
i
wji
入力層 x
隠れ層 z
出力層 y
Multi Layer Perceptron(MLP) アーキテクチャ
隠れ層を持つ
信号の処理方向は一方向のみ
教師あり学習 {xn, tn} → {w(1)
ji, w(2)
kj}
Back Propagation の連鎖則
24
yk
tk
k
j
wkj
j= f0
(uj)
X
k
kwk j
i
wji
j
勾配の連鎖則
確率的降下法(Stochastic GD,Amari 67)
1サンプル毎は非効率 全サンプルの平均勾配(Batch)は困難
mini Batch: 数個∼100個程度の平均勾配
準ニュートン法や,共益勾配法 (Le+11)
初期視覚野の性質
線分やエッジなどの成分に反応
Simple cell: 方位,位相に敏感
Complexcell: 位相には許容的
30
Simple Cell
Phase Sensitive
Orientation Selective
Receptive Field
Input Stimulus
Fire Not FireNot Fire
Phase InsensitiveComplex Cell
Receptive Field
Input Stimulus
Fire Not FireFire
V1
V2
V4
PITCIT
Ventral Pathway
AIT
TEO
TE
V1
V4
V2
IT
Small receptive field
Edge, Line segment
detector
Large receptive field
Face, Complex feature
detector
?
?
31.
Hubel-Wiesel 階層仮説
Simple Cellの出力合成で,
Complex cell は説明可能
(Hubel & Wiesel 59)
31
Simple Cell
Phase Sensitive
Orientation Selective
Receptive Field
Input Stimulus
Fire Not FireNot Fire
Phase InsensitiveComplex Cell
Receptive Field
Input Stimulus
Fire Not FireFire