5. 5
制限ボルツマンマシン分類器
Discriminative Restricted Boltzmann Machine (DRBM)[1,2,3]
出力層
中間層
入力層
DRBM の確率分布関数
1 : [H. Larochelle & Y
. Bengio, Proceedings of the 25th international conference on Machine learning, 2008]
2 : [H. Larochelle, M. Mandel, R. Pascanu, & Y
. Bengio, The Journal of Machine Learning Research, 2012]
3: [Y
. Yokoyama, T. Katsumata, & M. Yasuda, The Review of Socionetwork Strategies, 2019]
m が大きい
過学習は強くなる
中間素子の数 m が
モデルの表現能力を決める
15. 15
DBM の学習
DBM の学習は勾配法による対数尤度の最大化で行う
1 : [R. Salakhutdinov & G. Hinton, Artificial intelligence and statistics, 2009]
2 : [T. Katsumata & M. Yasuda, Nonlinear Theory and Its Applications (NOLTA 2020), 2020]
DBM の勾配式
可視層を
データで固定した
モデルの期待値
可視層を
データで固定しない
モデルの期待値
: データ点
: 厳密和
= -
平均場近似法 モンテカルロ積分法
従来法 [1]
空間モンテカルロ積分法
提案法 [2]
勾配法は勾配の値を逐次的に加算する方法
厳密和の計算には指数時間の計算量が必要
( 勾配 )
16. 16
提案アルゴリズムによる学習結果
1:[T. Katsumata & M.Yasuda, Proceedings of
the 2020 International Symposium on
Nonlinear Theory and Its Applications (NOLTA
2020), pp.29-32, 2020]
2:[T. Katsumata & M.Yasuda, Nonlinear
Theory and Its Applications (NOLTA 2020),
IEICE, 2020] 【投稿中】
down
up
up
down
3 層の結果 [1]
両方の指標ともに従来法よりも
良い結果が得られている
生成
KLD
( 良い→低い )
対数尤度
( 良い→高い )
事前に決めた
パラメータ
4 層の結果 [2]
18. 18
研究実績
●
Y
. Yokoyama, T. Katsumata, & M. Yasuda, “Restricted Boltzmann Machine with Multivalued Hidden
Variables: a model suppressing over-fitting”, The Review of Socionetwork Strategies, Vol.13, no.2, pp.253-
266, 2019.
●
T. Katsumata & M.Yasuda, “Effective Fine-Tuning Training of Deep Boltzmann Machine Based on Spatial
Monte Carlo Integration”, Nonlinear Theory and Its Applications (NOLTA 2020), IEICE, 2020 【投稿中】 .
国内学会 ( 査読なし )
●
勝亦利宗 , 安田宗樹 ,” スパース中間層を持つ制限ボルツマンマシン分類器”,情報処理学会第 82 回全国大会
(2020 年 3 月 5 日,金沢工業大学 , 口頭発表 ) 【学生奨励賞】 .
●
勝亦利宗 , 安田宗樹 ,” 深層ボルツマンマシンにおける学習アルゴリズムの改良”,情報処理学会第 83 回全国
大会 (2021 年 3 月 18 日,大阪大学 , 口頭発表 ) 【発表予定】 .
国際学会 ( 査読あり )
• T. Katsumata & M.Yasuda, “Effective Fine-Tuning Algorithm for Deep Boltzmann Machine”,
Proceedings of the 2020 International Symposium on Nonlinear Theory and Its Applications
(NOLTA 2020), pp.29-32, 2020
学術論文 ( 査読あり )
41. 41
DBM の学習
DBM の学習は対数尤度の最大化で行う
従来法 [1]
… モンテカルロ積分
… 平均場近似
… 空間モンテカルロ積分
提案法 [2]
1 : [R. Salakhutdinov & G. Hinton, Artificial intelligence and statistics, 2009]
2 : [T. Katsumata & M. Yasuda, Nonlinear Theory and Its Applications (NOLTA 2020), 2020]
DBM の期待値近似
: データ点
: 厳密和
厳密和は指数時間の計算量
近似計算が必要
DBM の勾配式
42. 42
DBM の応用例
– Multimodal Learning with DBM[1]
– Shape Boltzmann Machine[2]
1 : [N. Srivastava & R. Salakhutdinov, Proceedings of the 25th International Conference on Neural
Information Processing Systems, 2014]
2 : [S. M. Ali Eslami, Nicolas Heess, Christopher K. I. Williams, & John Winn, International Journal of
Computer Vision, 2013]
43. 43
空間モンテカルロ積分法
: 厳密和
: データ点
厳密性
高 低
計算量
大 小
厳密計算 空間モンテカルロ積分法 [1,2]
(1-SMCI)
モンテカルロ積分法
空間モンテカルロ法では厳密和の範囲を調整できる
範囲が広くなるほど近似精度が高くなることが証明されている
1 : [M. Yasuda, Journal of the Physical Society of Japan, 2015]
2 : [M. Yasuda & K. Uchizawa, arXiv:2009.02165, 2020]
44. 44
DBM の期待値計算
DBM の期待値計算は計算困難
v と h が取りうる全ての値の総和
指数時間の計算が必要
DBM の Fine-Tuning では近似が必要
従来法 [1]
… モンテカルロ積分
… 平均場近似
… 空間モンテカルロ積分
提案法 [2]
1 : [R. Salakhutdinov & G. Hinton, Artificial intelligence and statistics, 09]
2 : [T. Katsumata & M. Yasuda, Nonlinear Theory and Its Applications (NOLTA 2020), 20]