SlideShare a Scribd company logo
PRML 読書会 14.  モデルの結合 [email_address] Yoshinori Kabeya
目次 ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
イントロ:モデル結合とは ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],が、私はモデル結合の話ではなく、ベイズモデル平均化の話をします。 ベイズモデル平均化とモデル結合を区別することは重要である !
14.1 ベイズモデル平均化 ,[object Object],[object Object],[object Object],データ点の生成原因がどの構成要素であるかを示す 二値の潜在変数 z を含むモデルで同時分布を示すと 観測変数 x についての密度は潜在変数を周辺化することにより求まり 通常のガウス混合分布の例では (9.12) より下記の表記となりモデル結合の一例となる 独立同分布のデータ集合 X={x1,x2,,,xn} の周辺確率は となり、観測されたデータ点 Xn ごとに対応する潜在変数 Zn が存在することがわかる。 (14.2) (14.3) (14.4) (14.5) ① 混合ガウス分布を用いて モデル結合 の説明
14.1 ベイズモデル平均化 h=1,2,,,,H で番号付されたいくつかの異なるモデルがありその事前分布が p(h) とする するとデータ集合についての周辺分布は下記のようになる ② ベイズモデル平均化の例を説明 (14.6) この場合だとたった一つのモデルがデータ全体の生成を担当している  データ集合のサイズが大きくなれば、不確実性が減少しひとつのモデルに集中するようになる  よってひとつのモデルで予測することになり、モデル結合とならない p(h)
14.1 ベイズモデル平均化 演習  14.1 モデル p(t|x,zh,θh,h) を考える。 (x: 入力ベクトル、 t: 目標ベクトル ,h: モデルインデックス ,zh: 潜在変数、 θh: パラメータ集合 モデルの事前確率を p(h) とし、訓練集合を X={x1,x2,,,xN},T={t1,t2,,,tN} とする。 潜在変数とモデルインデックスを周辺化した予測分布を書き下し、ベイズモデル平均化と潜在変数を利用することの違いを示せ。 潜在変数とモデルインデックスを周辺化すると・・・ (150) の式は結局事前確率 h に潜在変数、パラメータが依存してしまい、ベイズモデル平均化となる。 (150)
14.1 ベイズモデル平均化 演習  14.1 (151) となり、データ点 Tn ごとに潜在変数 Zn が存在することがわかる よってこれはベイズモデル平均化ではない ここで潜在変数を陽に書くと・・・

More Related Content

What's hot

【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
 
研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節Koji Matsuda
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
Akira Miyazawa
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
matsuolab
 
PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性
sleepy_yoshi
 
【CVPR 2019】DeepSDF: Learning Continuous Signed Distance Functions for Shape R...
【CVPR 2019】DeepSDF: Learning Continuous Signed Distance Functions for Shape R...【CVPR 2019】DeepSDF: Learning Continuous Signed Distance Functions for Shape R...
【CVPR 2019】DeepSDF: Learning Continuous Signed Distance Functions for Shape R...
cvpaper. challenge
 
PRML11章
PRML11章PRML11章
PRML11章
Takashi Tamura
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
Shuyo Nakatani
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
matsuolab
 
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン
Yuta Sugii
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
ohken
 
MLP-Mixer: An all-MLP Architecture for Vision
MLP-Mixer: An all-MLP Architecture for VisionMLP-Mixer: An all-MLP Architecture for Vision
MLP-Mixer: An all-MLP Architecture for Vision
harmonylab
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布sleipnir002
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
Preferred Networks
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
 
データに内在する構造をみるための埋め込み手法
データに内在する構造をみるための埋め込み手法データに内在する構造をみるための埋め込み手法
データに内在する構造をみるための埋め込み手法
Tatsuya Shirakawa
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
 

What's hot (20)

【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
Prml14 5
Prml14 5Prml14 5
Prml14 5
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
PRML8章
PRML8章PRML8章
PRML8章
 
PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性
 
【CVPR 2019】DeepSDF: Learning Continuous Signed Distance Functions for Shape R...
【CVPR 2019】DeepSDF: Learning Continuous Signed Distance Functions for Shape R...【CVPR 2019】DeepSDF: Learning Continuous Signed Distance Functions for Shape R...
【CVPR 2019】DeepSDF: Learning Continuous Signed Distance Functions for Shape R...
 
PRML11章
PRML11章PRML11章
PRML11章
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
 
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
MLP-Mixer: An all-MLP Architecture for Vision
MLP-Mixer: An all-MLP Architecture for VisionMLP-Mixer: An all-MLP Architecture for Vision
MLP-Mixer: An all-MLP Architecture for Vision
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
 
データに内在する構造をみるための埋め込み手法
データに内在する構造をみるための埋め込み手法データに内在する構造をみるための埋め込み手法
データに内在する構造をみるための埋め込み手法
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 

Viewers also liked

エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
Hiroshi Shimizu
 
第一回卒研発表会
第一回卒研発表会第一回卒研発表会
第一回卒研発表会syou6162
 
Beautiful woRld
Beautiful woRldBeautiful woRld
Beautiful woRld
Takao Yokoyama
 
入門機械学習6章
入門機械学習6章入門機械学習6章
入門機械学習6章
Kazufumi Ohkawa
 
Prml
PrmlPrml
Prml
syou6162
 
大阪PRML読書会#1資料
大阪PRML読書会#1資料大阪PRML読書会#1資料
大阪PRML読書会#1資料
Hiromasa Ohashi
 
機械学習
機械学習機械学習
機械学習
Hikaru Takemura
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
Shiga University, RIKEN
 
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
Shiga University, RIKEN
 
Vanishing Component Analysis
Vanishing Component AnalysisVanishing Component Analysis
Vanishing Component Analysis
Koji Matsuda
 
続わかりやすいパターン認識11章(11.1 - 11.4)
続わかりやすいパターン認識11章(11.1 - 11.4)続わかりやすいパターン認識11章(11.1 - 11.4)
続わかりやすいパターン認識11章(11.1 - 11.4)Nagi Teramo
 
はじぱた7章F5up
はじぱた7章F5upはじぱた7章F5up
はじぱた7章F5up
Tyee Z
 
独立成分分析とPerfume
独立成分分析とPerfume独立成分分析とPerfume
独立成分分析とPerfume
Yurie Oka
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Shintaro Fukushima
 
続・わかりやすいパターン認識 第7章「マルコフモデル」
続・わかりやすいパターン認識 第7章「マルコフモデル」続・わかりやすいパターン認識 第7章「マルコフモデル」
続・わかりやすいパターン認識 第7章「マルコフモデル」
T T
 
非負値行列分解の確率的生成モデルと 多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...
非負値行列分解の確率的生成モデルと多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...非負値行列分解の確率的生成モデルと多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...
非負値行列分解の確率的生成モデルと 多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...
Daichi Kitamura
 
【Zansa】第17回 ブートストラップ法入門
【Zansa】第17回 ブートストラップ法入門【Zansa】第17回 ブートストラップ法入門
【Zansa】第17回 ブートストラップ法入門
Zansa
 
Pyladies Tokyo meet up #6
Pyladies Tokyo meet up #6Pyladies Tokyo meet up #6
Pyladies Tokyo meet up #6
Katayanagi Nobuko
 
Understanding your data with Bayesian networks (in Python) by Bartek Wilczyns...
Understanding your data with Bayesian networks (in Python) by Bartek Wilczyns...Understanding your data with Bayesian networks (in Python) by Bartek Wilczyns...
Understanding your data with Bayesian networks (in Python) by Bartek Wilczyns...
PyData
 
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」
Shinohara Masahiro
 

Viewers also liked (20)

エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
 
第一回卒研発表会
第一回卒研発表会第一回卒研発表会
第一回卒研発表会
 
Beautiful woRld
Beautiful woRldBeautiful woRld
Beautiful woRld
 
入門機械学習6章
入門機械学習6章入門機械学習6章
入門機械学習6章
 
Prml
PrmlPrml
Prml
 
大阪PRML読書会#1資料
大阪PRML読書会#1資料大阪PRML読書会#1資料
大阪PRML読書会#1資料
 
機械学習
機械学習機械学習
機械学習
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
 
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
 
Vanishing Component Analysis
Vanishing Component AnalysisVanishing Component Analysis
Vanishing Component Analysis
 
続わかりやすいパターン認識11章(11.1 - 11.4)
続わかりやすいパターン認識11章(11.1 - 11.4)続わかりやすいパターン認識11章(11.1 - 11.4)
続わかりやすいパターン認識11章(11.1 - 11.4)
 
はじぱた7章F5up
はじぱた7章F5upはじぱた7章F5up
はじぱた7章F5up
 
独立成分分析とPerfume
独立成分分析とPerfume独立成分分析とPerfume
独立成分分析とPerfume
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析
 
続・わかりやすいパターン認識 第7章「マルコフモデル」
続・わかりやすいパターン認識 第7章「マルコフモデル」続・わかりやすいパターン認識 第7章「マルコフモデル」
続・わかりやすいパターン認識 第7章「マルコフモデル」
 
非負値行列分解の確率的生成モデルと 多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...
非負値行列分解の確率的生成モデルと多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...非負値行列分解の確率的生成モデルと多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...
非負値行列分解の確率的生成モデルと 多チャネル音源分離への応用 (Generative model in nonnegative matrix facto...
 
【Zansa】第17回 ブートストラップ法入門
【Zansa】第17回 ブートストラップ法入門【Zansa】第17回 ブートストラップ法入門
【Zansa】第17回 ブートストラップ法入門
 
Pyladies Tokyo meet up #6
Pyladies Tokyo meet up #6Pyladies Tokyo meet up #6
Pyladies Tokyo meet up #6
 
Understanding your data with Bayesian networks (in Python) by Bartek Wilczyns...
Understanding your data with Bayesian networks (in Python) by Bartek Wilczyns...Understanding your data with Bayesian networks (in Python) by Bartek Wilczyns...
Understanding your data with Bayesian networks (in Python) by Bartek Wilczyns...
 
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」
 

パターン認識と機械学習14章 d0912

  • 1. PRML 読書会 14. モデルの結合 [email_address] Yoshinori Kabeya
  • 2.
  • 3.
  • 4.
  • 5. 14.1 ベイズモデル平均化 h=1,2,,,,H で番号付されたいくつかの異なるモデルがありその事前分布が p(h) とする するとデータ集合についての周辺分布は下記のようになる ② ベイズモデル平均化の例を説明 (14.6) この場合だとたった一つのモデルがデータ全体の生成を担当している  データ集合のサイズが大きくなれば、不確実性が減少しひとつのモデルに集中するようになる  よってひとつのモデルで予測することになり、モデル結合とならない p(h)
  • 6. 14.1 ベイズモデル平均化 演習 14.1 モデル p(t|x,zh,θh,h) を考える。 (x: 入力ベクトル、 t: 目標ベクトル ,h: モデルインデックス ,zh: 潜在変数、 θh: パラメータ集合 モデルの事前確率を p(h) とし、訓練集合を X={x1,x2,,,xN},T={t1,t2,,,tN} とする。 潜在変数とモデルインデックスを周辺化した予測分布を書き下し、ベイズモデル平均化と潜在変数を利用することの違いを示せ。 潜在変数とモデルインデックスを周辺化すると・・・ (150) の式は結局事前確率 h に潜在変数、パラメータが依存してしまい、ベイズモデル平均化となる。 (150)
  • 7. 14.1 ベイズモデル平均化 演習 14.1 (151) となり、データ点 Tn ごとに潜在変数 Zn が存在することがわかる よってこれはベイズモデル平均化ではない ここで潜在変数を陽に書くと・・・