SlideShare a Scribd company logo
PRML 2.3
Yuki Soma
4/24
• 2.3 The Gaussian Distribution . . . . . . . . . . . . . . . . . . . 78
– 2.3.1 Conditional Gaussian distributions . . . . . . . . . . . . . . 85
– 2.3.2 Marginal Gaussian distributions . . . . . . . . . . . . . . . 88
– 2.3.3 Bayes’ theorem for Gaussian variables . . . . . . . . . . . 90
– 2.3.4 Maximum likelihood for the Gaussian . . . . . . . . . . . . 93
– 2.3.5 Sequential estimation . . . . . . . . . . . . . . . . . . . . . 94
– 2.3.6 Bayesian inference for the Gaussian . . . . . . . . . . . . . 97
– 2.3.7 Student’s t-distribution . . . . . . . . . . . . . . . . . . . . 102
– 2.3.8 Periodic variables . . . . . . . . . . . . . . . . . . . . . . . 105
– 2.3.9 Mixtures of Gaussians . . . . . . . . . . . . . . . . . . . . 110
1.
2.
–
–
3.
4.
– This is “ ” MAP !
• 1
• D
• [0,1] N N→∞
PRML
• PRML
1. Σ
2. 1
3. 𝜇, Σ
•
– 4/14 http://research.nii.ac.jp/~satoh/utpr/
Mahalanobis
• Δ 𝐱, 𝝁 Mahalanobis
• Σ
1. Σ
•
– Exercise 2.17
• (a)→(b)
–
(a)→(b)
• Σ
• D …
•
– Exercise 2.18
(a)→(b)
• Σ Exercise 2.19
• Σ−1
(a)→(b)
•
–
–
2. 1
• 1 = 1
• 𝑝 𝐱 d𝐱 = 1
3. 𝜇, Σ
01
3. 𝜇, Σ
1
• Free parameter
–
•
(
𝐷(𝐷 + 1)
2
+ 𝐷) 2𝐷 (𝐷 + 1)
Σ Σ Σ
2
• Unimodal i.e.
• Multimodal
• latent variables
1. Section 2.3.9
2. Chapter 12
• Free parameter
• 2 …
– Markov random field Section 8.3
•
– Linear dynamical system Section 13.3
•
2.3.1 Conditional
•
• 𝐱 𝑎, 𝜇 𝑎 𝑀 Σ 𝑎𝑎 𝑀 × 𝑀
• 𝑝(𝐱 𝑎|𝐱 𝑏)
•
Precision matrix
• precision matrix
• Σ Λ
•
– Λ 𝑎𝑎, Λ 𝑏𝑏
– Σ
• 𝑝 𝐱 = 𝑝(𝐱 𝑎, 𝐱 𝑏)
• 𝑝 𝐱 𝑎 𝐱 𝑏 =
𝑝(𝐱 𝑎,𝐱 𝑏)
𝑝(𝐱 𝑏)
~ Gaussian
• …
• 𝐱 𝑎 2
– …
• Δ2
𝐱 𝑎, 𝝁 𝑎|𝑏 + 𝑐𝑜𝑛𝑠𝑡
𝑒 𝑥+𝑦 = 𝑒 𝑥 𝑒 𝑦
• Mahalanobis
•
• …
• 2 …
•
• 1 …
• …
Precision matrix is good
• 𝐱 𝜇 𝑎|𝑏, Σ 𝑎|𝑏 …
• Precision matrix
• Note!: 𝐱 𝑏
– Linear gaussian model
• Section 8.1.4
2.3.2 Marginal
• Section
–
•
– exp 𝑓 + 𝑔 = exp 𝑓 exp{𝑔}
– 𝑝(𝐱) 𝐱 𝑏
ℎ(𝐱 𝑎) exp{ℎ 𝐱 𝑎 }
– 𝐱 𝑏 𝐱 𝑎
ℎ(𝐱 𝑎)
𝐱 𝑏
• 𝐱 𝑏
𝐱 𝑏
Mahalanobis
1
Λ 𝑏𝑏
𝐦
𝐱 𝑎
𝐱 𝑏
• 𝐱 𝑏
– +
• Conditional
•
•
• Conditional
•
• precision matrix
2
2.3.3 for
• 𝐱 M 𝐲 D
• 𝑝(𝐲|𝐱) Linear Gaussian model Sec 8.1.4
– 𝐱 𝐱
• 𝑝 𝐲 , 𝑝(𝐱|𝐲)
•
• 𝐳
• 𝑝(𝐳) p 𝐲 , 𝑝(𝐱|𝐲)
–
𝐳
•
• 𝐳 2
𝐳
• 2 …
𝐳
• 1 …
𝑝(𝐳) p 𝐲 , 𝑝(𝐱|𝐲)
•
2.3.4 for
• D N ~𝑁(𝝁, Σ)
• log
• 𝐗 2
sufficient statistics
•
• Exercise 2.34
biased? unbiased?
• biased Exercise 2.35
•
2.3.5 Sequential Estimation
• N-1
•
• N
• …
• N 𝝁ML
(𝑁)
𝐱 𝑁
• seqential estimation
• 𝜃, 𝑧 𝑝(𝑧, 𝜃)
Robbins-Monro
• 1951
•
– z ∞
• 𝑓 𝜃 > 0 ⇒ 𝜃∗
< 𝜃, 𝑓 𝜃 < 0 ⇒ 𝜃 < 𝜃∗
– without loss of generality
Robbins-Monro
• 3
{𝑎 𝑁} 2.129 0
•
[Blum, 1965]
2.3.6 for
•
•
– exp{𝜇 2 }
⇒
⇒
•
• prior
• Precision 1
1
𝜎2
•
• D
– Exercise 2.40
Sequential Estimation is easy
•
•
– precision 𝜆 =
1
𝜎2
•
– 𝜆 𝑛
𝑒 𝑐𝜆
⇒
⇒
•
𝑎 > 0 𝑎 ≥ 1
precision
• …
• …
• 𝑎 𝑁 N
𝑁
2
– 2𝑎0
• 𝑏 𝑁 N
𝑁
2
𝜎ML
2
– =
𝑏0
𝑎0
2𝑎0
•
• 𝑝 𝜇, 𝜆 = 𝑝 𝜇 𝜆 𝑝(𝜆)
• 𝜇0 =
𝑐
𝛽
, 𝑎 = 1 +
𝛽
2
, 𝑏 = 𝑑 −
𝑐2
2𝛽
• normal-gamma/Gaussian-gamma
Gaussian-gamma
D
•
–
•
– Wishart
• Exercise 2.45
• 𝜈
D
•
– Gaussian-Wishart
Student t
• Gaussian-gamma precision
–
–
t
• 𝜈 t
• 𝜆 precision
–
t
• 1
• ∞
– Exercise: 2.47:
t
•
• Infinite mixtures of Gaussian
• tail
⇒t robustness
t robustness
• 𝜈 = 2𝑎, 𝜆 =
𝑎
𝑏
, 𝜂 =
𝑏
𝑎
𝜏
•
•
t
•
– Exercise 2.49:
2.3.8
•
– 𝑝 𝑥 = 𝑝 𝑥 + 2𝜋
•
–
•
• PRML
•
Mardia and Jupp (2000)
•
•
– 𝜃 𝑀𝐿 =
𝜃 𝑖
𝑁
•
– 𝐱 𝑖 = (cos 𝜃𝑖 , sin 𝜃𝑖)
– 𝐱 𝑀𝐿 = (
1
𝑁
cos 𝜃𝑖 ,
1
𝑁
sin 𝜃𝑖)
von Mises
•
•
von Mises
•
Conditional
von Mises
•
• 𝑚 =
𝑟0
𝜎2 𝑚 concentration parameter
von Mises
• 𝑚
– Exercise 2.52
von Mises
•
• 𝜃0, 𝑚
• 𝜃0
von Mises
• 𝑚 …
–
𝑑
𝑑𝑚
𝐼0 𝑚 = 𝐼1(𝑚) [Abramowitz and Stegun, 1965]
• 𝑚 𝑀𝐿
•
𝐼0 𝑚 , 𝐴 𝑚
•
• Conditional marginal
–
•
• von Mises unimodal
2.3.9 Mixtures of Gaussians
• unimodal
⇒mixture distributions
2.3.9 Mixtures of Gaussians
•
• 1
•
• ⇒Chapter 9
•
– ⇒EM

More Related Content

What's hot

PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
Takushi Miki
 
PRML読書会#4資料+補足
PRML読書会#4資料+補足PRML読書会#4資料+補足
PRML読書会#4資料+補足Hiromasa Ohashi
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
 
PRML読書会#2,#3資料
PRML読書会#2,#3資料PRML読書会#2,#3資料
PRML読書会#2,#3資料Hiromasa Ohashi
 
PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7
Takafumi Sakakibara
 
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
Ryosuke Sasaki
 
PRML2.1 2.2
PRML2.1 2.2PRML2.1 2.2
PRML2.1 2.2
Takuto Kimura
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半Ohsawa Goodfellow
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6Hiroyuki Kato
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
matsuolab
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布Nagayoshi Yamashita
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
matsuolab
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2Hiroyuki Kato
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場Daisuke Yoneoka
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
matsuolab
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Ken'ichi Matsui
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
hagino 3000
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
sleepy_yoshi
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
Hiroshi Shimizu
 

What's hot (20)

PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
PRML読書会#4資料+補足
PRML読書会#4資料+補足PRML読書会#4資料+補足
PRML読書会#4資料+補足
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 
PRML読書会#2,#3資料
PRML読書会#2,#3資料PRML読書会#2,#3資料
PRML読書会#2,#3資料
 
PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7
 
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
 
PRML2.1 2.2
PRML2.1 2.2PRML2.1 2.2
PRML2.1 2.2
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
 

PRML 2.3節 - ガウス分布