大規模データセットでの推論に便利なSVIの概要をまとめました.
SVIは確率的最適化の枠組みで行う変分ベイズ法です.
随時更新してます.
参考文献
[1]Matthew D Hoffman, David M Blei, Chong Wang, and John Paisley. Stochastic variational inference. The Journal of Machine Learning Research, Vol. 14, No. 1, pp. 1303–1347, 2013.
[2] 佐藤一誠. トピックモデルによる統計的意味解析. コロナ社, 2015.
大規模データセットでの推論に便利なSVIの概要をまとめました.
SVIは確率的最適化の枠組みで行う変分ベイズ法です.
随時更新してます.
参考文献
[1]Matthew D Hoffman, David M Blei, Chong Wang, and John Paisley. Stochastic variational inference. The Journal of Machine Learning Research, Vol. 14, No. 1, pp. 1303–1347, 2013.
[2] 佐藤一誠. トピックモデルによる統計的意味解析. コロナ社, 2015.
Robustness of classifiers_from_adversarial_to_random_noiseKeisuke Hosaka
NIPS2016の論文
「Fawzi, A., Moosavi-Dezfooli, S.-M., & Frossard, P. (2016). Robustness of classifiers: from adversarial to random noise. In NIPS (pp. 1624–1632).」
のまとめ資料(論文をほぼ日本語に訳した程度)
71. 試しに、以下のような簡単な{0,1}データを用いる
またここでは単純に尤度のみでグラフの善し悪しを判定する
番外編
ベイジアンネットワークの学習
0 0 0
0 0 0
0 0 0
0 0 0
1 0 0
1 0 0
1 1 0
1 1 0
1 1 1
1 1 1
a b c
P(a) = 3/5
P(b) = 2/5
P(c) = 1/5
!
P(a, b) = 2/5
P(b, c) = 1/5
P(a, c) = 1/5
P(a, b, c) = 1/5
P(a ¦ b, c) = 1
P(b ¦ a, c) = 1
P(c ¦ a, b) = 1/2
!
P(a ¦ b) = 1
P(a ¦ c) = 1
P(b ¦ a) = 2/3
P(b ¦ c) = 1
P(c ¦ a) = 1/3
P(c ¦ b) = 1/2
72. 独立性について
番外編
ベイジアンネットワークの学習
0 0 0
0 0 0
0 0 0
0 0 0
1 0 0
1 0 0
1 1 0
1 1 0
1 1 1
1 1 1
a b c
P(a ¦ b, c) = P(a ¦ b)
P(a ¦ b, c) = P(a ¦ c)
P(b ¦ a, c) P(b ¦ a)
P(b ¦ a, c) = P(b ¦ c)
P(c ¦ a, b) P(c ¦ a)
P(c ¦ a, b) = P(c ¦ b)
P(a, b, c) P(a) P(b) P(c)
P(a, b) P(a) P(b)
P(b, c) P(b) P(c)
P(a, c) P(a) P(c)
条件付き独立性について
データによって成り立ったり、
成り立たなかったりする