Submit Search
Upload
PRML復々習レーン#2 2.3.6 - 2.3.7
•
4 likes
•
3,783 views
S
sleepy_yoshi
Follow
PRML復々習レーン#2 2.3.6 - 2.3.7
Read less
Read more
Technology
Report
Share
Report
Share
1 of 59
Download now
Download to read offline
Recommended
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
Prml 2.3
Prml 2.3
Yuuki Saitoh
PRML輪読#2
PRML輪読#2
matsuolab
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
Hiroyuki Kato
PRML 2.4
PRML 2.4
kazunori sakai
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
Ryosuke Sasaki
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
Nagayoshi Yamashita
PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28
kurotaki_weblab
Recommended
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
Prml 2.3
Prml 2.3
Yuuki Saitoh
PRML輪読#2
PRML輪読#2
matsuolab
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.3.6
Hiroyuki Kato
PRML 2.4
PRML 2.4
kazunori sakai
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
Ryosuke Sasaki
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
Nagayoshi Yamashita
PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28
kurotaki_weblab
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
Hiroyuki Kato
PRML読書会#4資料+補足
PRML読書会#4資料+補足
Hiromasa Ohashi
PRML 1.6 情報理論
PRML 1.6 情報理論
sleepy_yoshi
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
PRML2.1 2.2
PRML2.1 2.2
Takuto Kimura
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
Yuki Matsubara
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布
Yuki Soma
Prml 2_3_5
Prml 2_3_5
brownbro
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
Ohsawa Goodfellow
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
PRML輪読#3
PRML輪読#3
matsuolab
PRML読み会第一章
PRML読み会第一章
Takushi Miki
PRML 2.3 ガウス分布
PRML 2.3 ガウス分布
KokiTakamiya
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
禎晃 山崎
PRML輪読#7
PRML輪読#7
matsuolab
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
Keisuke Sugawara
PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7
Takafumi Sakakibara
Prml 4.1.1
Prml 4.1.1
Satoshi Kawamoto
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布
Akihiro Nitta
PRML輪読#4
PRML輪読#4
matsuolab
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
Takuto Kimura
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
sleepy_yoshi
More Related Content
What's hot
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
Hiroyuki Kato
PRML読書会#4資料+補足
PRML読書会#4資料+補足
Hiromasa Ohashi
PRML 1.6 情報理論
PRML 1.6 情報理論
sleepy_yoshi
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
PRML2.1 2.2
PRML2.1 2.2
Takuto Kimura
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
Yuki Matsubara
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布
Yuki Soma
Prml 2_3_5
Prml 2_3_5
brownbro
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
Ohsawa Goodfellow
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
PRML輪読#3
PRML輪読#3
matsuolab
PRML読み会第一章
PRML読み会第一章
Takushi Miki
PRML 2.3 ガウス分布
PRML 2.3 ガウス分布
KokiTakamiya
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
禎晃 山崎
PRML輪読#7
PRML輪読#7
matsuolab
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
Keisuke Sugawara
PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7
Takafumi Sakakibara
Prml 4.1.1
Prml 4.1.1
Satoshi Kawamoto
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布
Akihiro Nitta
PRML輪読#4
PRML輪読#4
matsuolab
What's hot
(20)
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML読書会#4資料+補足
PRML読書会#4資料+補足
PRML 1.6 情報理論
PRML 1.6 情報理論
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML2.1 2.2
PRML2.1 2.2
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布
Prml 2_3_5
Prml 2_3_5
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
PRML輪読#3
PRML輪読#3
PRML読み会第一章
PRML読み会第一章
PRML 2.3 ガウス分布
PRML 2.3 ガウス分布
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
PRML輪読#7
PRML輪読#7
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7
Prml 4.1.1
Prml 4.1.1
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布
PRML輪読#4
PRML輪読#4
Similar to PRML復々習レーン#2 2.3.6 - 2.3.7
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
Takuto Kimura
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
sleepy_yoshi
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
PRML 8.4-8.4.3
PRML 8.4-8.4.3
KunihiroTakeoka
魔女のお茶会.pdf
魔女のお茶会.pdf
Taikyaki 8926
PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
PRML 2.3.1-2.3.2
PRML 2.3.1-2.3.2
KunihiroTakeoka
witchs_key_party.pptx
witchs_key_party.pptx
Taikyaki 8926
University CodeSprint 4 - Magic value
University CodeSprint 4 - Magic value
satanic
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
takutori
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
Prml1.2.4
Prml1.2.4
Tomoyuki Hioki
CVIM mean shift-3
CVIM mean shift-3
正志 坪坂
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
sleepy_yoshi
人生を豊かにする線形代数学
人生を豊かにする線形代数学
Fumiya Watanabe
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
kenyanonaka
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学
ssuserf4860b
基礎強化数学 2次関数のグラフ
基礎強化数学 2次関数のグラフ
studyplace0
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
TakaakiYonekura
Similar to PRML復々習レーン#2 2.3.6 - 2.3.7
(20)
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
PRML 8.4-8.4.3
PRML 8.4-8.4.3
魔女のお茶会.pdf
魔女のお茶会.pdf
PRML第6章「カーネル法」
PRML第6章「カーネル法」
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
PRML 2.3.1-2.3.2
PRML 2.3.1-2.3.2
witchs_key_party.pptx
witchs_key_party.pptx
University CodeSprint 4 - Magic value
University CodeSprint 4 - Magic value
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
Prml1.2.4
Prml1.2.4
CVIM mean shift-3
CVIM mean shift-3
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
人生を豊かにする線形代数学
人生を豊かにする線形代数学
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学
基礎強化数学 2次関数のグラフ
基礎強化数学 2次関数のグラフ
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
More from sleepy_yoshi
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
sleepy_yoshi
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measures
sleepy_yoshi
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
sleepy_yoshi
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
sleepy_yoshi
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
sleepy_yoshi
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
sleepy_yoshi
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
sleepy_yoshi
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Rank
sleepy_yoshi
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
sleepy_yoshi
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
sleepy_yoshi
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
sleepy_yoshi
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
sleepy_yoshi
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
sleepy_yoshi
More from sleepy_yoshi
(20)
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measures
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Rank
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
Recently uploaded
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
iPride Co., Ltd.
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
sugiuralab
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
danielhu54
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
Toru Tamaki
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
Ryo Sasaki
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Yuma Ohgami
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
Toru Tamaki
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
Toru Tamaki
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
Hiroki Ichikura
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
taisei2219
Recently uploaded
(10)
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
PRML復々習レーン#2 2.3.6 - 2.3.7
1.
PRML復々習レーン
2.3.6 – 2.3.7 2012-06-17 Yoshihiko Suhara @sleepy_yoshi 1
2.
アウトライン • 2.3.6 ガウス分布に対するベイズ推論 •
2.3.7 スチューデントのt分布 2
3.
2.3.6 ガウス分布に対するベイズ推論
3
4.
必須知識 (おさらい) • 尤度関数
𝑁 – 𝐿 𝜃; 𝑿 = 𝑝 𝑿 𝜽 = 𝑛=1 𝑝 𝒙𝑛 𝜽 • パラメータの事後分布∝尤度×事前分布 𝑁 𝑝 𝜽 𝑿 ∝ 𝑝 𝑿 𝜽 𝑝 𝜽 = 𝑝 𝒙 𝑛 𝜽 𝑝(𝜽) 𝑛=1 4
5.
キモ • ベイズ推定で求めるのはパラメータの分布 –
点推定するのではなく,パラメータの確率密度関 数を求める – 点推定したい場合にはパラメータの事後分布の 最頻値を利用すればよい (MAP推定) 5
6.
2.3.6 のポイント (1/2) •
ガウス分布のパラメータの事後分布は以下 のとおり 事後分布 1変量 多変量 平均パラメータ(分散既知) ガウス分布 ガウス分布 精度パラメータ(平均既知) ガンマ分布 ウィシャート分布 分散パラメータ(平均既知) 逆ガンマ分布 逆ウィシャート分布 平均,精度パラメータ ガウス―ガンマ分布 ガウス―ウィシャート分布 6
7.
2.3.6 のポイント (2/2) •
ガウス分布の各パラメータの事後分布 – (1) 分散既知,平均パラメータの事後分布 – (2) 平均既知,精度(分散)パラメータの事後分布 – (3) 平均と精度パラメータの事後分布 – 上記について一次元版と多変量版 7
8.
(1) 分散既知,平均パラメータの事後分布
8
9.
1次元ガウス分布の尤度関数 • 分散𝜎 2
は既知とする • N個の観測データから平均𝜇を推定する • N個のデータが与えられたとき尤度関数は 𝑁 𝑁 1 1 2 𝑝 𝑿 𝜇 = 𝑝 𝑥𝑛 𝜇 = 𝑁 exp − 2𝜎 2 𝑥𝑛− 𝜇 𝑛=1 2𝜋𝜎 2 2 𝑛=1 𝜇については二次形式の指数の形 ⇒ 事前分布にガウス分布を選べば事後分布も同じ関数形式になる 9
10.
平均パラメータの事後分布
2 • 事前分布: 𝑝 𝜇 = 𝒩 𝜇 𝜇0 , 𝜎0 • パラメータの事後分布: 𝑝 𝜇 𝑿 ∝ 𝑝 𝑿 𝜇 𝑝(𝜇) • 指数部分の平方完成 (演習2.38) を行うと以下を得る. 𝑝 𝜇 𝑿 = 𝒩 𝜇 𝜇 𝑁, 𝜎2 𝑁 • ただし, 2 𝜎2 𝑁𝜎0 𝜇𝑁= 2 𝜇 + 2 0 2 2 𝜇 𝑀𝐿 𝑁𝜎0 + 𝜎 𝑁𝜎0 + 𝜎 1 1 𝑁 𝑁 2 = 2 + 𝜎2 1 𝜎𝑁 𝜎0 𝜇 𝑀𝐿 = 𝑁 𝑥𝑛 𝑛=1 10
11.
演習2.38 • 指数関数の中身を平方完成して整理
𝑁 1 2 1 2 − 2 𝑥𝑛− 𝜇 − 2 𝜇 − 𝜇0 2𝜎 2𝜎0 𝑛=1 𝑁 𝑁 1 1 1 1 1 2 1 2 =− 𝑥 2 − 2 2𝜇 𝑛 𝑥𝑛+ 𝑁𝜇 2 + 2 𝜇 2 − 2 𝜇𝜇0 + 2 𝜇0 2 𝜎2 𝜎 𝜎2 𝜎0 𝜎0 𝜎0 𝑛=1 𝑛=1 1 𝑁 1 ∑𝑥 𝑛 𝜇0 =− + 2 𝜇2 + 2 + 2 𝜇 + const. 2 𝜎2 𝜎0 𝜎2 𝜎0 2 2 1 𝑏 𝑏 平方完成 𝑘𝑎2 + 𝑏 = 𝑎2 + − 𝑘 2𝑘 2𝑘 2 𝑁𝜇 𝑀𝐿 𝜇0 1 𝑁 1 𝜎 2 + 2 𝜎0 =− + 2 𝜇− + 𝑐𝑜𝑛𝑠𝑡. 2 𝜎2 𝜎0 𝑁 1 𝜎 2+ 𝜎 0 11
12.
事後分布の解釈 • 事後分布の平均 –
事前分布の平均𝜇0 と最尤推定解𝜇 𝑀𝐿 の間をとった値 – 𝑁 = 0のとき事前分布の平均,𝑁 → ∞のとき,最尤 推定解 • 事後分布の分散 – 観測データ点が増えるにつれ,精度が増加 – 𝑁 = 0のとき事前分布の分散,𝑁 → ∞のとき,分散 𝜎 2 は0に近づく 𝑁 12
13.
ガウス分布の平均のベイズ推論
13
14.
逐次的推定としてのベイズ推論
𝑁−1 • 𝑝 𝜇 𝑋 ∝ 𝑝 𝜇 𝑛=1 𝑝 𝑥𝑛 𝜇 𝑝 𝑥𝑁 𝜇 N-1個観測した事後分布 • ベイズ更新によって求められる推定量が先ほどの Robbins-Monroアルゴリズムによる推論と一致する (演習2.39) ※ 共役事前分布のご利益 14
15.
多次元の場合
15
16.
多次元への拡張 • 演習2.40 (→
see @takmin さんの資料) 16
17.
(2) 平均既知,精度(分散)パラメータの事後分布
17
18.
精度パラメータの尤度関数
1 • 扱いやすいので精度パラメータ 𝜆 ≡ とする 𝜎2 • 𝜆についての尤度関数は 𝑁 𝑁 𝑁 𝜆 𝑝 𝑋 𝜆 = 𝒩 𝑥 𝑛 𝜇, 𝜆−1 ∝ 𝜆2 exp − 𝑥𝑛− 𝜇 2 2 𝑛=1 𝑛=1 • 事後分布を同じ関数形にするためには事前分布は, – (1) 𝜆のべき乗と – (2) 𝜆の線形関数の指数の積 • に比例する必要がある (⇒ ガンマ分布) 18
19.
ガンマ分布
1 • Gam 𝜆 𝑎, 𝑏 = 𝑏 𝑎 𝜆 𝑎−1 exp −𝑏𝜆 Γ 𝑎 – Γ 𝑎 はガンマ関数 (次頁で紹介) – 𝑎 = 1のとき,パラメータbに従う指数分布となる 19
20.
補足: ガンマ関数とは • ガンマ関数は階乗の一般化
∞ Γ 𝑥 ≡ 𝑢 𝑥−1 𝑒 −𝑢 d𝑢 0 • 𝑥が整数のとき,階乗と一致 Γ 𝑥 = (𝑥 − 1) Γ 𝑥 − 1 = (𝑥 − 1)! (𝑥 ∈ ℕ) Γ 1 =1 20
21.
演習2.41: 正規化の確認 ∞ 0
𝐺𝑎𝑚 𝜆 𝑎, 𝑏 d𝜆 = 1 を確認する ∞ 𝑏𝑎 𝜆 𝑎−1 exp −𝑏𝜆 d𝜆 ここで 𝑏𝜆 = 𝑥 とおく Γ 𝑎 0 𝑎−1 𝑑𝜆 1 𝑏𝑎 1 ∞ 𝑥 = = exp −𝑥 d𝑥 𝑑𝑥 𝑏 Γ 𝑎 𝑏 0 𝑏 ∞ 𝑏 𝑎−1 1 = 𝑥 𝑎−1 exp −𝑥 d𝑥 Γ 𝑎 𝑏 𝑎−1 0 1 = Γ 𝑎 =1 Γ 𝑎 21
22.
ガンマ分布の平均と分散 • ガンマ分布の平均と分散は以下のとおり (演
習2.42) 𝑎 – 平均 𝔼 𝜆 = 𝑏 𝑎 – 分散 var 𝜆 = 𝑏2 𝑎−1 – 最頻値 mode 𝜆 = b 22
23.
演習2.42 (略解) • 平均
– 演習2.41と同じノリで • 分散 – 𝔼 𝜆2 − 𝔼 𝜆 2 で求める • 最頻値 – 極値を求める→微分して0とおく (黒板でフォロー) 23
24.
事後分布 • 事前分布Gam 𝜆
𝑎0 , 𝑏0 を尤度関数(2.145)にかけると以 下の事後分布を得る 𝑁 𝑎0 −1 2 𝑁 𝜆 2 𝑝 𝜆 𝑋 ∝ 𝜆 𝜆 exp −𝑏0 𝜆 − 𝑥𝑛− 𝜇 2 𝑛=1 • これはパラメータを次のように設定したガンマ分布 Gam 𝜆 𝑎 𝑁 , 𝑏 𝑁 となる 𝑁 – 𝑎 𝑁 = 𝑎0 + 2 1 𝑁 – 𝑏 𝑁 = 𝑏0 + 𝑁 ∑ 𝑛=1 𝑥𝑛− 𝜇 2 = 𝑏0 + 𝜎2 𝑀𝐿 2 2 24
25.
事後分布の解釈
𝑁 • (2.150)より,𝑁個のデータを観測すると𝑎を だけ 2 増やす効果がある – 事前分布のパラメータ𝑎0 は2𝑎0 個の「有効な」観測値 が事前にあることを示すと解釈できる 𝑁𝜎 2𝑀𝐿 • (2.151)より,𝑁個のデータ点は だけパラメー 2 タ𝑏に影響を及ぼす 2𝑏0 𝑏0 – 事前分布のパラメータ𝑏0 は,その分散が = であ 2𝑎0 𝑎0 るような2𝑎0 個の「有効な」観測値が事前にあることを 示すと解釈できる 25
26.
分散の事後分布 • 精度ではなく分散について考えることもできる • 逆ガンマ分布
– この分布についてこれ以上は触れない (終) 26
27.
多次元の場合
27
28.
ウィシャート分布 • 𝐷次元変数の多変量ガウス分布𝒩 𝒙
𝝁, 𝚲−1 の 場合,平均が既知で精度行列𝚲が未知なら共役 事前分布はウィシャート分布になる 𝜈−𝐷−1 1 𝒲 𝚲 𝑾, 𝜈 = 𝐵 𝚲 2 exp − Tr 𝑾−1 𝚲 2 • 𝑾は𝐷 × 𝐷の尺度行列,Tr(⋅)はトレースを表す. 正規化定数𝐵は −1 𝐷 𝜈 −2 𝜈𝐷 𝐷 𝐷−1 𝜈+1− 𝑖 𝐵 𝑾, 𝜈 = 𝑾 22 𝜋 4 Γ 2 𝑖=1 28
29.
ウィシャート分布が共役事前分布であることの確認 • 演習2.48 (→
see @takmin さんの資料) 29
30.
逆ウィシャート分布 • 精度行列ではなく,分散行列上の共役事前
分布 – ここではこれ以上は触れない. 30
31.
(3) 平均と精度パラメータの事後分布
31
32.
平均と精度パラメータの尤度関数 • 平均と精度が未知の場合,尤度関数は
𝑁 1 𝜆 2 𝜆 2 𝑝 𝑿 𝜇, 𝜆 = exp − 𝑥𝑛− 𝜇 2𝜋 2 𝑛=1 𝑁 𝑁 𝑁 1 𝜆𝜇2 𝜆 ∝ 𝜆 2 exp − exp 𝜆𝜇 𝑥𝑛− 𝑥2 𝑛 2 2 𝑛=1 𝑛=1 • 尤度関数と同じ𝜇と𝜆への関数依存性を備え た事前分布𝑝(𝜇, 𝜆)が求めたい 32
33.
平均と精度パラメータの事前分布 • よって以下を得る
2 𝛽 1 𝜆𝜇 𝑝 𝜇, 𝜆 ∝ 𝜆2 exp − exp 𝑐𝜆𝜇 − 𝑑𝜆 2 2 𝛽𝜆 𝑐 𝛽 𝑐2 = exp − 𝜇− 𝜆2 exp − 𝑑− 𝜆 2 𝛽 2𝛽 – ここで𝑐, 𝑑, 𝛽は定数 33
34.
ガウス―ガンマ分布 • 正規―ガンマ分布とも呼ばれる
𝑝 𝜇, 𝜆 = 𝒩 𝜇 𝜇0 , 𝛽𝜆 −1 Gam(𝜆|𝑎, 𝑏) • 𝜆が共有されているため,独立なガウス分布 とガンマ分布の積ではないことに注意 34
35.
多次元の場合
35
36.
ガウス―ウィシャート分布 • 平均と精度が両方とも未知の場合の共役事
前分布 𝑝 𝝁, 𝚲 𝝁0 , 𝛽, 𝑾, 𝜈 = 𝒩 𝝁 𝝁0 , 𝛽𝚲 −1 𝒲 𝚲 𝑾, 𝜈 • 正規―ウィシャート分布とも呼ばれる 36
37.
2.3.6のまとめ • 以下の各分布がガウス分布における各パラ
メータの事後分布と共役事前分布であること を (部分的に) 示した 事後分布 1変量 多変量 平均パラメータ(分散既知) ガウス分布 ガウス分布 精度パラメータ(平均既知) ガンマ分布 ウィシャート分布 分散パラメータ(平均既知) 逆ガンマ分布 逆ウィシャート分布 平均,精度パラメータ ガウス―ガンマ分布 ガウス―ウィシャート分布 37
38.
小休止
38
39.
2.3.7 スチューデントのt分布
39
40.
2.3.7 のポイント • スチューデントのt分布の導出 •
スチューデントのt分布の定性的な意味づけ – 頑健性 – 自由度パラメータの意味 40
41.
スチューデントのt分布 • ぱっと見,ガウス分布ぽい • 何に使われる?
– 平均の差の検定とか • なんでスチューデント? 41
42.
Student = William
S. Gosset (1876-1937) • イギリスの統計学者,醸造技術者 – ギネス社に勤務 ギネスでは企業秘密の問題で社員が論文を出すことを禁止して いたので、ゴセットは Student というペンネームで論文を発表し た。彼のもっとも有名な業績はスチューデントのt分布と呼ばれ る。1908年の「平均値の誤差の確率分布(The probable error of a mean)」 をはじめ、ほとんどの論文がピアソンの主宰する Biometrika 誌に発表された。(Wikipediaより抜粋) 42
43.
t分布の導出 (1/2) • ガウス分布において,ガンマ分布を精度の事前分布と
し,精度を積分消去する (演習2.46) と,𝑥の周辺分布 は, ∞ 𝑝 𝑥 𝜇, 𝑎, 𝑏 = 𝒩 𝑥 𝜇, 𝜏 −1 Gam 𝜏 𝑎, 𝑏 d𝜏 0 ∞ 𝑎 𝑒 −𝑏𝜏 𝑎−1 1 𝑏 𝜏 𝜏 2 𝜏 2 = exp − 𝑥− 𝜇 d𝜏 0 Γ 𝑎 2𝜋 2 1 1 −𝑎− 𝑏𝑎 1 2 𝑥− 𝜇 2 2 1 = 𝑏+ Γ 𝑎+ Γ 𝑎 2𝜋 2 2 43
44.
t分布の導出 (2/2)
𝑎 • 慣例により,𝜈 = 2𝑎 と 𝜆 = のパラメータを 𝑏 新たに定義すると分布𝑝 𝑥 𝜇, 𝑎, 𝑏 は 𝜈 1 1 𝜈 1 Γ + 𝜆 2 𝜆 𝑥− 𝜇 2 − 2 −2 2 2 St 𝑥 𝜇, 𝜆, 𝜈 = 𝜈 1+ Γ 𝜋𝜈 𝜈 2 これはスチューデントのt分布と呼ばれる 44
45.
演習2.46 (1/2)
∞ 𝑎 𝑒 −𝑏𝜏 𝑎−1 1 𝑏 𝜏 𝜏 2 𝜏 2 𝑝 𝑥 𝜇, 𝑎, 𝑏 = exp − 𝑥− 𝜇 d𝜏 0 Γ 𝑎 2𝜋 2 1 ∞ 𝑏𝑎 1 2 1 𝑎−2 𝑥− 𝜇 2 = 𝜏 exp −𝜏 𝑏+ d𝜏 Γ 𝑎 2𝜋 0 2 𝑥−𝜇 2 ここで 𝑧 = 𝜏Δ, Δ = 𝑏 + というテクい置換をする 2 1 ∞ 𝑏𝑎 1 2 1 −𝑎−2 1 𝑎−2 = Δ 𝑧 exp −𝑧 d𝑧 Γ 𝑎 2𝜋 0 1 𝑏𝑎 1 2 1 −𝑎−2 1 = Δ Γ 𝑎+ Γ 𝑎 2𝜋 2 45
46.
演習2.46 (2/2)
𝑥−𝜇 2 𝜈 𝜈 あとは Δ = 𝑏 + , 𝑎 = , 𝑏 = を代入すると 2 2 𝜆 (中略) 𝜈 1 1 𝜈 1 Γ + 𝜆 2 𝜆 𝑥− 𝜇 2 − 2 −2 2 2 = 𝜈 1+ Γ 𝜋𝜈 𝜈 2 46
47.
t分布のパラメータ • 精度
𝜆 • 自由度 𝜈 • 自由度 𝜈 = 1 でコーシー分布 • 自由度 𝜈 → ∞ で平均𝜇 精度が𝜆のガウス分布 (演習2.47) 47
48.
演習2.47 (1/4)
𝜈 1 1 𝜈 1 Γ 2+2 𝜆 2 𝜆 𝑥− 𝜇 2 −2−2 lim 𝜈 1+ 𝜈→∞ Γ 𝜋𝜈 𝜈 がガウス分布になることを証明 2 (A) (B) 2つの道具を使って証明する 48
49.
演習2.47 (2/4)
Γ 𝑛+𝑥 (A) ガンマ関数の定義より lim =1 𝑛→∞ Γ 𝑛 𝑛 𝑥 𝜈 1 1 𝜈 1 1 1 Γ 2+2 𝜆 2 Γ 2+2 𝜆 2 𝜆 2 lim 𝜈 = lim 1 =1⋅ 𝜈→∞ Γ 𝜋𝜈 𝜈→∞ 𝜈 𝜈 2 2𝜋 2𝜋 2 Γ 2 2 (A) 49
50.
演習2.47 (3/4)
1 𝑥 (B) 自然対数の定義より lim 1 + = 𝑒 𝑥→∞ 𝑥 𝜈 1 2 −2−2 𝜆 𝑥− 𝜇 lim 1 + 𝜈→∞ 𝜈 𝜆 𝑥−𝜇 2 𝜈 1 𝜈 − − 𝜈 2 2 𝜆 𝑥− 𝜇 2 𝜆 𝑥−𝜇 2 = lim 1+ 𝜈→∞ 𝜈 𝜆 𝑥−𝜇 2 𝜆 𝑥−𝜇 2 𝜈 − 2 − 2𝜈 𝜆 𝑥− 𝜇 2 𝜆 𝑥−𝜇 2 = lim 1+ 𝜈→∞ 𝜈 1 − 𝜆 𝑥−𝜇 2 = 𝑒 2 50 (B)
51.
演習2.47 (4/4) • (A)と(B)を組み合わせて
𝜈 1 1 𝜈 1 Γ 2+2 𝜆 2 𝜆 𝑥− 𝜇 2 −2−2 lim 𝜈 1+ 𝜈→∞ Γ 𝜋𝜈 𝜈 2 1 𝜆 2 𝜆 2 = exp − 𝑥− 𝜇 2𝜋 2 51
52.
Γ 𝑛+𝑥
補足: lim = 1の証明 𝑛→∞ Γ 𝑛 𝑛 𝑥 ガンマ関数の定義より 𝑛−1 ! 𝑛𝑥 Γ 𝑥 = lim 𝑛→∞ 𝑥 𝑥+1 𝑥 + 2 ⋯ (𝑥 + 𝑛 − 1) 1 𝑥 𝑥+1 𝑥 + 2 ⋯ (𝑥 + 𝑛 − 1) = lim Γ 𝑥 𝑛→∞ 𝑛−1 ! 𝑛𝑥 Γ 𝑥 𝑥 𝑥+1 𝑥 + 2 ⋯ (𝑥 + 𝑛 − 1) 1 = lim 𝑛→∞ 𝑛−1 ! 𝑛𝑥 Γ 𝑥+ 𝑛 1 = lim 𝑛→∞ Γ 𝑛 𝑛 𝑥 52
53.
t分布の頑健性 • (2.158)よりt分布は平均は同じで,精度が異なるようなガウス
分布を無限個足し合わせたものであることがわかる – ガウス分布の無限混合分布と解釈できる – ガウス分布よりも「すそ」が長い ⇒ 頑健性を持つ (外れ値に強い) t分布 t分布 vs. ガウス分布 53
54.
t分布の最尤推定解 • 解析的には求まらない –
EMアルゴリズムを利用 (→12章) 54
55.
多変量スチューデントt分布 (1/2) • 多変量の場合,
∞ −1 𝜈 𝜈 St 𝒙 𝝁, 𝚲, 𝜈 = 𝒩 𝒙 𝝁, 𝜂𝚲 Gam 𝜂 , d𝜂 0 2 2 • 積分を計算する (演習2.48) と 𝐷 𝜈 1 𝐷 𝜈 Γ + Λ2 ∆2 − − 2 2 2 2 St 𝒙 𝝁, 𝚲, 𝜈 = 𝜈 𝐷 1+ 𝜈 Γ 𝜋𝜈 2 2 • を得る. – ただし𝐷は𝒙の次元数,∆2 = 𝒙 − 𝝁 𝑇 𝚲(𝒙 − 𝝁) 55
56.
多変量スチューデントt分布 (2/2) • 多変量スチューデントt分布は次の性質を満
たす (演習2.49) • 𝔼 𝒙 = 𝝁 (𝜈 > 1のとき) 𝜈 • cov 𝒙 = 𝚲−1 (𝜈 > 2のとき) 𝜈−2 • mode 𝒙 = 𝝁 56
57.
スチューデントt分布まとめ • 平均は同じで,精度が異なるようなガウス分布を
無限個足し合わせたもの – ガウス分布よりも外れ値に強い • 自由度 𝜈=1 でコーシー分布 • 自由度 𝜈→∞ で平均𝜇 精度が𝜆のガウス分布 • パラメータ推定はEMアルゴリズムによる数値解 法が必要 57
58.
参考文献 • PRML復習レーン 2.3.6
by @takmin さん – http://www.slideshare.net/takmin/chapter236/ 58
59.
おしまい Thank you @takmin
さん!! 59
Download now