SlideShare a Scribd company logo
1 of 23
Download to read offline
+
PRML 9章 EMアルゴリズム	
Bread Company CEO すみもとぱんいち	
17/02/04	 1
+
9章 混合モデルとEM	
n EMアルゴリズムってなに?
n Expectation Maximizationの略
n 日本語で期待値最大化
n これから詳しく説明していくよ!
17/02/04	
2
+
潜在変数の導入	
n 潜在変数の導入によって、複雑な分布を単純
な分布から構成することが可能になる
n  混合ガウス分布
n トピックモデル
n 複雑な分布って何?単純な分布って?
17/02/04	
3
+
潜在変数の導入	
17/02/04	
4	
こんなに複雑な確率分布を、
どうやって表現するのだろう?
+
潜在変数の導入	
17/02/04	
5	
わかった!
ガウス分布の重み付き重ね合わせで
表現できるんだね!
+
潜在変数の導入	
n 複雑な分布を、知っている単純な確率分布の
重み付き重ね合わせで表現できた
n 数式ではどうやってかくの?
17/02/04	
6	
p(x|✓) =
KX
k=1
p(x, z = k|✓)
重ね合わせ	
ガウス分布かな?	複雑な分布
+
潜在変数の導入	
17/02/04	
7	
p(x|✓) =
KX
k=1
p(x, z = k|✓)
ガウス分布だろうけど...よくわからない。	
そうだ、ベイズの定理をつかおう!	
ガウス分布?	重み付きの、	
p(x, z = k|✓) = p(z = k|⇡)p(x|z = k, µ, ⌃)
+
基本的な確率分布の復習	
n カテゴリカル分布(離散分布)
n ガウス分布
17/02/04	
8	
p(z|⇡) = ⇧K
k=1⇡
(z=k)
k
p(z = k|⇡) = ⇡k
p(x|z = k, µ, ⌃) = N(x|µk, ⌃k)
+
潜在変数の導入	
n 複雑な分布を単純な分布で表現することができた
17/02/04	
9	
p(x, z = k|✓) = p(z = k|⇡)p(x|z = k, µ, ⌃)
= ⇡kN(x|µk, ⌃k)
p(x|✓) =
KX
k=1
p(x, z = k|✓)
p(x|✓) =
KX
k=1
⇡kN(x|µk, ⌃k)
+
EMアルゴリズムによる学習	
n どうやって複雑な分布
のパラメータの学習を
することができる?
n 最尤推定
n map推定
n ベイズ推定
17/02/04	
10	
p(x|✓) =
KX
k=1
⇡kN(x|µk, ⌃k)
+
最尤推定法	
n まずは最尤推定法を思い出そう
17/02/04	
11
+
最尤推定法	
n まずは最尤推定法を思い出そう
n 対数尤度最大化を考えればよかったね。
17/02/04	
12	
log L =
NX
i=1
log p(xi|✓)
+
最尤推定法	
n 複雑な分布を考えてるので、潜在変数を導入し
よう
17/02/04	
13	
log L =
NX
i=1
log p(xi|✓)
=
NX
i=1
log
KX
k=1
p(xi, zi = k|✓)
+
最尤推定法	
n  logLをパラメータθで微分してイコール0を
解くことで、対数尤度最大化を考えよう
n 具体的に、さっきまで考えてたガウス分布を
つかおう!
17/02/04	
14	
log L =
NX
i=1
log
KX
k=1
p(xi, zi = k|✓)
+
最尤推定法	
n  logLをパラメータπ、μ、Σで微分してイ
コール0を解けばよかったね。
n しかし、大体の混合分布の対数尤度は解析的
に解くことができない...
n 余力がある人はためしてみよう
17/02/04	
15	
log L =
NX
i=1
log
KX
k=1
⇡kN(xi|µk, ⌃k)
+
EMアルゴリズムによる学習	
n  それでは、どうすればいいのか
n 最急降下法
n EMアルゴリズム
n EMアルゴリズム
n logLの下限を最大化する
ことを考える
17/02/04	
16	
log L =
NX
i=1
log
KX
k=1
p(xi, zi = k|✓)
+
EMアルゴリズムによる学習	
17/02/04	
17	
log L =
NX
i=1
log
KX
k=1
P(xi, zi = k|✓)
log L =
NX
i=1
log
KX
k=1
qi(zi = k)
P(xi, zi = k|✓)
qi(zi = k)
log L =
NX
i=1
KX
k=1
qi(zi = k) log
P(xi, zi = k|✓)
qi(zi = k)
+
NX
i=1
KX
k=1
qi(zi = k) log
qi(zi = k)
P(zi = k|xi, ✓)
log L
NX
i=1
KX
k=1
qi(zi = k) log
P(xi, zi = k|✓)
qi(zi = k)
= F
この項はKLダイバージェンスであり、
必ず正となる	
任意の確率分布q(z)を導入	
n  logLの下限を求める
+
EMアルゴリズムによる学習	
17/02/04	
18	
n  logLを直接最大化できないので、下限Fを最
大化することを目標にする
n Fを最大にするパラメータθとqを求めたい
n Fをqで微分して0とおくと、qは事後分布と
なる。
n KLダイバージェンスが0のときを考えてもよい
F =
NX
i=1
KX
k=1
qi(zi = k) log
P(xi, zi = k|✓)
qi(zi = k)
qi(zi = k) = P(zi = k|xi, ✓)
+
EMアルゴリズムによる学習	
17/02/04	
19	
n  今度はパラメータθで微分
n このとき、qはθに依存しているため、qは
一旦固定して、Fを最大化する
n このとき、θは解析的に解くことができる!
F =
NX
i=1
KX
k=1
qi(zi = k) log
P(xi, zi = k|✓)
qi(zi = k)
qi(zi = k) = P(zi = k|xi, ✓)
+
EMアルゴリズムによる学習	
17/02/04	
20	
n  qとパラメータθを交互にもとめることで、
下限Fを最大化することができる
n 同時に対数尤度logLも最大化している
F =
NX
i=1
KX
k=1
qi(zi = k) log
P(xi, zi = k|✓)
qi(zi = k)
ˆ✓ = arg max
✓
NX
i=1
KX
k=1
qi(zi = k) log
P(xi, zi = k|✓)
qi(zi = k)
qi(zi = k) = P(zi = k|xi, ˆ✓)Estep: 	
Mstep:
+
予測分布	
17/02/04	
21	
n  学習したパラメータをつかって、
複雑な分布を推定することができた
ˆ✓ = arg max
✓
NX
i=1
KX
k=1
qi(zi = k) log
P(xi, zi = k|✓)
qi(zi = k)
qi(zi = k) = P(zi = k|xi, ˆ✓)
p(x|ˆ✓) =
KX
k=1
p(x, z = k|ˆ✓)
+
EMアルゴリズムにおける期待値	
17/02/04	
22	
n  期待値最大化の期待値はどこの部分をさすの?
n Mstepの式を書き換えると...?
n 完全対数尤度の事後分布による期待値だとわかる
ˆ✓ = arg max
✓
NX
i=1
KX
k=1
qi(zi = k) log
P(xi, zi = k|✓)
qi(zi = k)
qi(zi = k) = P(zi = k|xi, ˆ✓)Estep: 	
Mstep: 	
ˆ✓ = arg max
✓
NX
i=1
KX
k=1
qi(zi = k) log P(xi, zi = k|✓)
+
EMアルゴリズムにおける期待値	
17/02/04	
23	
n  この式の意味は?
n  データがどのクラスタに属するかは実際にはわからない(b)
n  どのクラスタにわりあてると、期待値的に、対数尤度が増加す
るかということを考えている
ˆ✓ = arg max
✓
NX
i=1
KX
k=1
qi(zi = k) log P(xi, zi = k|✓)

More Related Content

What's hot

Operad and Recognition Principle
Operad and Recognition PrincipleOperad and Recognition Principle
Operad and Recognition PrincipleTatsuki SHIMIZU
 
topology of musical data
topology of musical datatopology of musical data
topology of musical dataTatsuki SHIMIZU
 
Divisor
DivisorDivisor
Divisoroupc
 
公開鍵暗号2: NP困難性
公開鍵暗号2: NP困難性公開鍵暗号2: NP困難性
公開鍵暗号2: NP困難性Joe Suzuki
 
はんなりPython#42 20210629
はんなりPython#42 20210629はんなりPython#42 20210629
はんなりPython#42 20210629takey Takesue
 
ゼロから作るDeepLearning 3.3~3.6章 輪読
ゼロから作るDeepLearning 3.3~3.6章 輪読ゼロから作るDeepLearning 3.3~3.6章 輪読
ゼロから作るDeepLearning 3.3~3.6章 輪読KCS Keio Computer Society
 
グラフカットによる画像背景切り取り
グラフカットによる画像背景切り取りグラフカットによる画像背景切り取り
グラフカットによる画像背景切り取りcoil_kpc
 
アルゴリズムとデータ構造14
アルゴリズムとデータ構造14アルゴリズムとデータ構造14
アルゴリズムとデータ構造14Kenta Hattori
 
公開鍵暗号(5): NP困難性
公開鍵暗号(5): NP困難性公開鍵暗号(5): NP困難性
公開鍵暗号(5): NP困難性Joe Suzuki
 
Coreset+SVM (論文紹介)
Coreset+SVM (論文紹介)Coreset+SVM (論文紹介)
Coreset+SVM (論文紹介)Naotaka Yamada
 
続分かりやすいパターン認識 4章後半(4.7以降)
続分かりやすいパターン認識 4章後半(4.7以降)続分かりやすいパターン認識 4章後半(4.7以降)
続分かりやすいパターン認識 4章後半(4.7以降)Motoya Wakiyama
 
Four op
Four opFour op
Four opoupc
 
64ビット高性能線形擬似乱数発生法の開発
64ビット高性能線形擬似乱数発生法の開発64ビット高性能線形擬似乱数発生法の開発
64ビット高性能線形擬似乱数発生法の開発Shin Harase
 
多倍長整数の乗算と高速フーリエ変換
多倍長整数の乗算と高速フーリエ変換多倍長整数の乗算と高速フーリエ変換
多倍長整数の乗算と高速フーリエ変換京大 マイコンクラブ
 
ZDD基礎
ZDD基礎ZDD基礎
ZDD基礎reew2n
 
音声認識技術の変遷
音声認識技術の変遷音声認識技術の変遷
音声認識技術の変遷emonosuke
 

What's hot (19)

RUPC 2019 Day3 E: 往復文字列
RUPC 2019 Day3 E: 往復文字列RUPC 2019 Day3 E: 往復文字列
RUPC 2019 Day3 E: 往復文字列
 
TDA やら Night!!
TDA やら Night!!TDA やら Night!!
TDA やら Night!!
 
Operad and Recognition Principle
Operad and Recognition PrincipleOperad and Recognition Principle
Operad and Recognition Principle
 
topology of musical data
topology of musical datatopology of musical data
topology of musical data
 
Divisor
DivisorDivisor
Divisor
 
公開鍵暗号2: NP困難性
公開鍵暗号2: NP困難性公開鍵暗号2: NP困難性
公開鍵暗号2: NP困難性
 
はんなりPython#42 20210629
はんなりPython#42 20210629はんなりPython#42 20210629
はんなりPython#42 20210629
 
ゼロから作るDeepLearning 3.3~3.6章 輪読
ゼロから作るDeepLearning 3.3~3.6章 輪読ゼロから作るDeepLearning 3.3~3.6章 輪読
ゼロから作るDeepLearning 3.3~3.6章 輪読
 
グラフカットによる画像背景切り取り
グラフカットによる画像背景切り取りグラフカットによる画像背景切り取り
グラフカットによる画像背景切り取り
 
アルゴリズムとデータ構造14
アルゴリズムとデータ構造14アルゴリズムとデータ構造14
アルゴリズムとデータ構造14
 
公開鍵暗号(5): NP困難性
公開鍵暗号(5): NP困難性公開鍵暗号(5): NP困難性
公開鍵暗号(5): NP困難性
 
Coreset+SVM (論文紹介)
Coreset+SVM (論文紹介)Coreset+SVM (論文紹介)
Coreset+SVM (論文紹介)
 
続分かりやすいパターン認識 4章後半(4.7以降)
続分かりやすいパターン認識 4章後半(4.7以降)続分かりやすいパターン認識 4章後半(4.7以降)
続分かりやすいパターン認識 4章後半(4.7以降)
 
JSIAM_2019_9_4
JSIAM_2019_9_4JSIAM_2019_9_4
JSIAM_2019_9_4
 
Four op
Four opFour op
Four op
 
64ビット高性能線形擬似乱数発生法の開発
64ビット高性能線形擬似乱数発生法の開発64ビット高性能線形擬似乱数発生法の開発
64ビット高性能線形擬似乱数発生法の開発
 
多倍長整数の乗算と高速フーリエ変換
多倍長整数の乗算と高速フーリエ変換多倍長整数の乗算と高速フーリエ変換
多倍長整数の乗算と高速フーリエ変換
 
ZDD基礎
ZDD基礎ZDD基礎
ZDD基礎
 
音声認識技術の変遷
音声認識技術の変遷音声認識技術の変遷
音声認識技術の変遷
 

More from ぱんいち すみもと

ICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミぱんいち すみもと
 
Free lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationFree lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationぱんいち すみもと
 
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介ぱんいち すみもと
 
Anomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial NetworksAnomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial Networksぱんいち すみもと
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ぱんいち すみもと
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005ぱんいち すみもと
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたぱんいち すみもと
 
Categorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxCategorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxぱんいち すみもと
 
パンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderパンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderぱんいち すみもと
 

More from ぱんいち すみもと (20)

ICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミ
 
Free lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationFree lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibration
 
Anomaly detection survey
Anomaly detection surveyAnomaly detection survey
Anomaly detection survey
 
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介
 
continual learning survey
continual learning surveycontinual learning survey
continual learning survey
 
Contrastive learning 20200607
Contrastive learning 20200607Contrastive learning 20200607
Contrastive learning 20200607
 
Variational denoising network
Variational denoising networkVariational denoising network
Variational denoising network
 
Deep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly DetectionDeep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly Detection
 
Anomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial NetworksAnomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial Networks
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
 
最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)
 
Dual dl
Dual dlDual dl
Dual dl
 
Categorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxCategorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmax
 
Domain transfer サーベイ
Domain transfer サーベイDomain transfer サーベイ
Domain transfer サーベイ
 
Intro VAE
Intro VAEIntro VAE
Intro VAE
 
パンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderパンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoder
 
PRML 14章
PRML 14章PRML 14章
PRML 14章
 

PRML 9章