SlideShare a Scribd company logo
1 of 21
Download to read offline
『トピックモデルによる潜在的意味解析』読書会
「3.3 変分近似法 (3.3.1~3.3.3)」
#トピ本 2015.7.7
by @tn1031
contents
• 変分法 [3.3.1]
• 変分ベイズ法 [3.3.2,3.3.3]
– まとめ
– 因子分解
– 重要ポイント
– アルゴリズムと疑似コード
– (補足)アルゴリズムの幾何的解釈
• まとめ
1
変分法
2
変分法
• 関数 を入力とする汎関数 の極値となる関数
を求めるための方法
⇒ 関数を関数で微分する方法
のとき


0
)()]([ dxxfxfL
)cos(x
)sin(x
0)cos()]([
0
 

dxxxfL
2)sin()]([
0
 

dxxxfL
KL情報量の最適化に使う予定
L[ f (x)]f
のとき
汎関数の例)積分
(3.39)
3
変分法
• 関数 が関数 によって構成されている場合,
と表記する
)(log)(),( xqxqqxf 
(変分ベイズ法で頻繁に登場する関数)
0
)(
),(



xq
qxf
f (x) q(x) f (x,q)
(3.40)
• 汎関数 の極値を与える は,以下の
オイラー・ラグランジュ方程式(微分方程式)によって
与えられる
 dxqxfxfL ),()]([ q
4
変分ベイズ法
5
変分ベイズ法まとめ
• 観測 に対して,潜在変数 ,パラメータ
をすべて確率変数として,その確率分布を求める
(事後確率でない!)
),|(log :1 nxp



 d
qzq
zxp
qzq
n
nn
n
)()(
),|,,(
log)()(
;1
;1:1
;1
)(qF






)(:1:1
)(:1:1:1
:1
)|,(logexp)()(
)|,(logexp)(
nzqnn
qnnn
zxppq
zxpzq

 
 dzxp nn ),|,,(log ;1:1
)|(~ izii xpx 
)|(~ ii zMultiz
)|(~  kk p
)|(~  Dir
生成過程(今回扱うモデル)
n
K

iz
k

ix

潜在変数とパラメータの分布を交互に更新
z1:n },{  
• を , について最大化F(q) )(q q(z1:n )
x1:n
6http://www.ism.ac.jp/~daichi/paper/vb-nlp-tutorial.pdfより
因子分解
• 解析的に解けない事後分布を,計算が可能な分布で近似する
• 変分ベイズ法で必要になるのは「分解可能である」という仮定のみ
),,|,,( :1:1  nn xzp
n
K
iz
k
ix


事後分布(解析的に解けない)
),|,,( :1

nzq
変分事後分布(解析的に解ける分布で近似)
 




ddppzpzxp
ppzpzxp
z k
k
i
ikii
k
k
i
ikii
)|()|()|(),|(
)|()|()|(),|(
分母の組み合わせがツライ
その1:共役性がある場合[3.3.2]
n
K
iz
k
ix
その2:共役性がない場合[3.3.3]
),,( :1 nzq
n
K
iz
k
ix



 )|()|()(
11

 qqzq
K
k
k
n
i
i
k












  
特定の確率分布を仮定しない
Dir
Dir
ディリクレ分布を仮定
確率分布を決め打ち
因子分解
(3.72)
(3.42)
 

K
k
k
n
i
i qqzq
11
)()()( 
7
変分ベイズ法の最重要ポイント
),|(log :1 nxp



 dd
qqzq
zxp
qqzq
n
nn
n
)()()(
),|,,,(
log)()()(
;1
;1:1
;1)],,([ :1 nzqF
)],,|,,(||),,([)],,([ :1:1:1:1  nnnn xzpzqKLzqF 
変分事後分布(近似事後分布)を実際の事後分布にできるだけ近づけたい
),,( :1 nzq
)],,|,,(||),,([minarg :1:1:1
),,( :1


nnn
Qzq
xzpzqKL
n 

ところが、式(3.43) は計算が困難な項 を含む),,|,,( :1:1  nn xzp
)43.3(
対数周辺尤度について、KL情報量に関する関係を用いることで上の最適化問題は迂回可能
対数周辺尤度とKL情報量の満たす関係
変分下限 KL情報量
(3.46)
(3.47)
8
変分ベイズ法の最重要ポイント(続き)
),|(log :1 nxp対数周辺尤度 は,変分事後分布 と無関係),,( :1 nzq
変分下限最適化のイメージ
⇒ は の変化に影響されず一定),|(log :1 nxp ),,( :1 nzq
変分下限
最適化
),|(log :1 nxp
][qF
]||[ pqKL
),|(log :1 nxp
]||[ pqKL
][qF
得られる解 は, とのKL情報量を最小にする),,( :1 nzq
),|(log :1 nxp
9
(一定) (一定)
解きたい問題
結局、変分ベイズ法では以下の最適化問題を解くことになる
)],,([maxarg),,( :1
),,(
:1
:1


n
Qzq
n zqFzq
n 


展開すると、
)],,([ :1 nzqF

nz n
nn
n dd
zq
zxp
qqzq
:1
)(
),|,(
log)()()(
:1
:1:1
:1 


)]|(||)([)]|(||)([
1
 pqKLpqKL
K
k
k  
式(3.52)と式(3.53)は,それぞれが変分ベイズ法の性質を説明している
• 式(3.52) ・・・ (特定の条件下で)最尤推定としてみなせる項
• 式(3.53) ・・・ 正則化項
)51.3(
)52.3(
)53.3(
10
式から見る変分ベイズ法の性質(1)
(3.52)について

nz n
nn
n dd
zq
zxp
qqzq
:1
)(
),|,(
log)()()(
:1
:1:1
:1 



nz n
nn
n
zq
zxp
zq
:1
)(
),|,(
log)(
:1
:1:1
:1


一般的にイメージする連続分布
今考えている確率分布
【参考】EMアルゴリズム
)),(()|(log :1:1  nn zqFxp 

nz nn
nn
nn
xzq
zxp
xzq
:1
)ˆ,|(
)|,(
log)ˆ,|(
:1:1
:1:1
:1:1



として下限 を について交互に最大化する)),(( :1 nzqF ),( :1 nzq
• これを最大化する を求める手法はEMアルゴリズム,),( izq
)52.3(
(3.54)
11
式から見る変分ベイズ法の性質(2)
(3.53)について
• この項は変分事後分布とそれぞれの事前分布のKL情報量
• 変分事後分布が事前分布から離れすぎることを防止
)]|(||)([)]|(||)([
1
 pqKLpqKL
K
k
k 
)53.3(
: の類似度(離れると値が増加))|(),(  pq)]|(||)([  pqKL k
)]|(||)([  pqKL : の類似度(離れると値が増加))|(),(  pq
変分事後分布(求めたい分布)
事前分布
(既知・データに依らない)
正則化の効果
ちなみに、
• データ数∞でMDL/BICと一致
))ˆ()ˆ(log(log)
2
|ˆ|
2
|ˆ|
( 

ppN MDL,BIC:
12
アルゴリズムと疑似コード
• 変分事後分布の更新式は以下のようになる
• 実装上はこれらをひたすら更新することになる
• Step1:初期化
– ハイパーパラメータの初期化
– 潜在変数の初期化
• Step2:以下を繰り返す
– パラメータの更新(M-step)
– 潜在変数の更新(E-step)
)( kzq i  





  )|(log)(exp)|()( :1:1
:1
 n
z
n zpzqpq
n






 
)|(log)(exp)|()(
1
k
n
i
iikk xpkzqpq 
潜在変数の更新(E-step) パラメータの更新(M-step)
    ddkzxpqq ii ),|,(log)()(exp
(3.61)
(3.67)
(3.71)
変分ベイズ法
13
アルゴリズム理解のための補足
(本の内容から外れます)
14
情報幾何
• ある構造をもつ空間の中で確率分布を解釈する
• 統計,情報理論など異分野の問題を統一的に解釈できる
• 幾何学は直感的理解を得られる可能性がある(なお実際は…)
情報幾何の分野では,確率分布(確率モデル)を点と空間で表現する
例) 正規分布

1 2
1
2
ここまで扱ってきたモデルの場合は,モデル空間は の軸で表現可能


1 2
1
2
),,( :1
1
nzq


z
),,( :1 nzq
,,z
),,( :1
2
nzq
?),,( :1 nzq
  

n
i
K
k
ki qqzq
1 1
)()()( 
変分事後分布
最適なモデルに対応する座標はどこか? 15
点の間隔の大きさを
表す量がKL情報量
情報幾何的世界観
• 情報幾何的に解釈すると,機械学習はデータをモデル空間(部分空間)に
射影した時のモデル空間上の座標を求める問題
• この考え方は変分ベイズ法だけでなく,EMアルゴリズムやアンサンブル学
習など様々な学習アルゴリズムを説明することが可能
モデル
データ
結果
世の中
部分空間M
十分統計量
射影
16
https://staff.aist.go.jp/s.akaho/papers/infogeo-sice.pdfより
情報幾何を用いた
変分ベイズアルゴリズムの解釈
直感的解釈
真の分布p
モデルM(e平坦)
S
e射影
初期解
• 因子分解によってモデル空間が得られる
• KL情報量から目指す座標を特定
• E/M各Stepで1変数についての最適化を繰り返す
)()()(),,|,,( :1:1:1  qqzqxzp nnn 
)],,|,,(||)()()([min :1:1
)()(
:1
)(
 nn
tt
n
t
xzpqqzqKL
:モデルM(e平坦)
:e射影
• Step1:初期化
– ハイパーパラメータの初期化
– 潜在変数の初期化
• Step2:以下を繰り返す
– パラメータの更新(M-step)
– 潜在変数の更新(E-step)
変分ベイズ法
17
https://staff.aist.go.jp/s.akaho/papers/infogeo-sice.pdfより
交互最適化の軌跡
まとめ
18
まとめ
• 解析的に計算不可能なモデルに対する近似解法
– 因子分解を利用して事後分布を解析可能な分布で近似
• MCMCのような確率的な手法とは異なる,決定論的なアルゴリズム
– 目標とする対数周辺尤度は定数
– これの下限(変分下限)を最大化する
– 変分下限の最大化 = 変分事後分布と本来の事後分布のKL情報量の最小化
• EMアルゴリズムを内包する
– パラメータの分布q(z),q(θ)が求まる
– q(θ)がデルタ関数のとき,EMアルゴリズムと一致する
• 過学習を防止する仕組みを有する
– パラメータの事前分布と変分事後分布とのKL情報量が正則化項として機能する
19
参考
• トピックモデルによる統計的潜在意味解析
• パターン認識と機械学習(下)
• http://www.ism.ac.jp/~daichi/paper/vb-nlp-tutorial.pdf
• https://staff.aist.go.jp/s.akaho/papers/infogeo-sice.pdf
• http://www.cse.buffalo.edu/faculty/mbeal/papers/beal03.pdf
20

More Related Content

What's hot

ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoderKazuki Nitta
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門Miyoshi Yuya
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布Nagayoshi Yamashita
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法Kenichi Hironaka
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10matsuolab
 
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)Ryosuke Sasaki
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半Ohsawa Goodfellow
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム裕樹 奥田
 
色々な確率分布とその応用
色々な確率分布とその応用色々な確率分布とその応用
色々な確率分布とその応用Hiroki Iida
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式Hiroshi Nakagawa
 

What's hot (20)

ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
Variational AutoEncoder
Variational AutoEncoderVariational AutoEncoder
Variational AutoEncoder
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
 
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
2 3.GLMの基礎
2 3.GLMの基礎2 3.GLMの基礎
2 3.GLMの基礎
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
PRML 2.4
PRML 2.4PRML 2.4
PRML 2.4
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム
 
色々な確率分布とその応用
色々な確率分布とその応用色々な確率分布とその応用
色々な確率分布とその応用
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 

Viewers also liked

第3章 変分近似法 LDAにおける変分ベイズ法・周辺化変分ベイズ法
第3章 変分近似法 LDAにおける変分ベイズ法・周辺化変分ベイズ法第3章 変分近似法 LDAにおける変分ベイズ法・周辺化変分ベイズ法
第3章 変分近似法 LDAにおける変分ベイズ法・周辺化変分ベイズ法ksmzn
 
3.1節 統計的学習アルゴリズム
3.1節 統計的学習アルゴリズム3.1節 統計的学習アルゴリズム
3.1節 統計的学習アルゴリズムAkito Nakano
 
トピックモデルによる統計的潜在意味解析 2章後半
トピックモデルによる統計的潜在意味解析 2章後半トピックモデルによる統計的潜在意味解析 2章後半
トピックモデルによる統計的潜在意味解析 2章後半Shinya Akiba
 
20150730 トピ本第4回 3.4節
20150730 トピ本第4回 3.4節20150730 トピ本第4回 3.4節
20150730 トピ本第4回 3.4節MOTOGRILL
 
「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」
「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」
「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」ksmzn
 
逐次ベイズ学習 - サンプリング近似法の場合 -
逐次ベイズ学習 - サンプリング近似法の場合 -逐次ベイズ学習 - サンプリング近似法の場合 -
逐次ベイズ学習 - サンプリング近似法の場合 -y-uti
 
読書会 「トピックモデルによる統計的潜在意味解析」 第2回 3.2節 サンプリング近似法
読書会 「トピックモデルによる統計的潜在意味解析」 第2回 3.2節 サンプリング近似法読書会 「トピックモデルによる統計的潜在意味解析」 第2回 3.2節 サンプリング近似法
読書会 「トピックモデルによる統計的潜在意味解析」 第2回 3.2節 サンプリング近似法健児 青木
 

Viewers also liked (7)

第3章 変分近似法 LDAにおける変分ベイズ法・周辺化変分ベイズ法
第3章 変分近似法 LDAにおける変分ベイズ法・周辺化変分ベイズ法第3章 変分近似法 LDAにおける変分ベイズ法・周辺化変分ベイズ法
第3章 変分近似法 LDAにおける変分ベイズ法・周辺化変分ベイズ法
 
3.1節 統計的学習アルゴリズム
3.1節 統計的学習アルゴリズム3.1節 統計的学習アルゴリズム
3.1節 統計的学習アルゴリズム
 
トピックモデルによる統計的潜在意味解析 2章後半
トピックモデルによる統計的潜在意味解析 2章後半トピックモデルによる統計的潜在意味解析 2章後半
トピックモデルによる統計的潜在意味解析 2章後半
 
20150730 トピ本第4回 3.4節
20150730 トピ本第4回 3.4節20150730 トピ本第4回 3.4節
20150730 トピ本第4回 3.4節
 
「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」
「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」
「トピックモデルによる統計的潜在意味解析」読書会「第1章 統計的潜在意味解析とは」
 
逐次ベイズ学習 - サンプリング近似法の場合 -
逐次ベイズ学習 - サンプリング近似法の場合 -逐次ベイズ学習 - サンプリング近似法の場合 -
逐次ベイズ学習 - サンプリング近似法の場合 -
 
読書会 「トピックモデルによる統計的潜在意味解析」 第2回 3.2節 サンプリング近似法
読書会 「トピックモデルによる統計的潜在意味解析」 第2回 3.2節 サンプリング近似法読書会 「トピックモデルによる統計的潜在意味解析」 第2回 3.2節 サンプリング近似法
読書会 「トピックモデルによる統計的潜在意味解析」 第2回 3.2節 サンプリング近似法
 

Similar to 3.3節 変分近似法(前半)

トピックモデル3章後半
トピックモデル3章後半トピックモデル3章後半
トピックモデル3章後半Shuuji Mihara
 
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)Toshiyuki Shimono
 
第5章 拡張モデル(前半)
第5章 拡張モデル(前半)第5章 拡張モデル(前半)
第5章 拡張モデル(前半)Akito Nakano
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章YosukeAkasaka
 
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワークisaac-otao
 
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)Toshiyuki Shimono
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回ke beck
 
マトロイドの世界
マトロイドの世界マトロイドの世界
マトロイドの世界KoseiTeramoto
 
大規模地震シミュレーション1
大規模地震シミュレーション1大規模地震シミュレーション1
大規模地震シミュレーション1RCCSRENKEI
 
第10回 配信講義 計算科学技術特論B(2022)
第10回 配信講義 計算科学技術特論B(2022)第10回 配信講義 計算科学技術特論B(2022)
第10回 配信講義 計算科学技術特論B(2022)RCCSRENKEI
 
続・わかりやすいパターン認識第5章
続・わかりやすいパターン認識第5章続・わかりやすいパターン認識第5章
続・わかりやすいパターン認識第5章Roy Ray
 
効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習Kenta Ishii
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)Akihiro Nitta
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Wataru Kishimoto
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章Shoichi Taguchi
 

Similar to 3.3節 変分近似法(前半) (20)

トピックモデル3章後半
トピックモデル3章後半トピックモデル3章後半
トピックモデル3章後半
 
PRML10-draft1002
PRML10-draft1002PRML10-draft1002
PRML10-draft1002
 
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
PRML輪講用資料10章(パターン認識と機械学習,近似推論法)
 
第5章 拡張モデル(前半)
第5章 拡張モデル(前半)第5章 拡張モデル(前半)
第5章 拡張モデル(前半)
 
大規模凸最適化問題に対する勾配法
大規模凸最適化問題に対する勾配法大規模凸最適化問題に対する勾配法
大規模凸最適化問題に対する勾配法
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章
 
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク
詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク
 
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
PRML 10.3, 10.4 (Pattern Recognition and Machine Learning)
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回
 
マトロイドの世界
マトロイドの世界マトロイドの世界
マトロイドの世界
 
大規模地震シミュレーション1
大規模地震シミュレーション1大規模地震シミュレーション1
大規模地震シミュレーション1
 
Draftall
DraftallDraftall
Draftall
 
PRMLrevenge_3.3
PRMLrevenge_3.3PRMLrevenge_3.3
PRMLrevenge_3.3
 
第10回 配信講義 計算科学技術特論B(2022)
第10回 配信講義 計算科学技術特論B(2022)第10回 配信講義 計算科学技術特論B(2022)
第10回 配信講義 計算科学技術特論B(2022)
 
続・わかりやすいパターン認識第5章
続・わかりやすいパターン認識第5章続・わかりやすいパターン認識第5章
続・わかりやすいパターン認識第5章
 
効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習
 
PRML 第14章
PRML 第14章PRML 第14章
PRML 第14章
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
 

3.3節 変分近似法(前半)