33. ReLU (Rectified Linear Unit)
赤: 𝑖 𝜎(𝑥 − 𝑖 + 0.5)
青: log(1+exp(x))
緑: max(0,x+N(0,σ(x))
35
Nair, V., & Hinton, G. E. (2010).
Rectified Linear Units Improve
Restricted Boltzmann Machines.
より
34. Deep Belief Network(DBN)
deep learningの火付け役となったモ
デル [Hinton et al. 2006. A Fast Learning
Algorithm for Deep Belief Nets]
最上位層のみ無向エッジでほかはす
べて有効エッジ
下位層から順にRBMで学習(pre-
training)
学習した値を初期値に順伝播型の
ニューラルネットとして学習(fine-
tuning)
このとき,最上位に出力層を追加す
る(その重みはランダムに初期化)
36
37. Reference
Bishop(2006), “Pattern Recognition and Machine Learning”
Hinton(2002), ”Training products of experts by contrastive
divergence”
Nair, V., & Hinton, G. E. (2010). ”Rectified Linear Units Improve
Restricted Boltzmann Machines”
Salakhutdinov, R., & Hinton, G. (2009). “Deep Boltzmann
Machines”
Hinton et al. (2006). “A Fast Learning Algorithm for Deep Belief
Nets”
岡谷貴之(2015) “深層学習”
“RBMから考えるDeep Learning ~黒魔術を添えて~”
http://qiita.com/t_Signull/items/f776aecb4909b7c5c116
“Deep Learning Tutorial” http://deeplearning.net/tutorial/
40