SlideShare a Scribd company logo
1 of 9
Download to read offline
PRML3.4 ベイズモデル比較




         2012/7/16
              @K5_sem
            PRML読書会
概要
●
    3.4ではベイズの立場で モデル選択(Model
    Selection)について考える
●
    3.4の流れ
    ●
        ベイズ以外の立場でモデル選択
    ●
        ベイズの立場でモデル選択
    ●
        モデルエビデンスの評価
    ●
        モデル選択
ベイズ以外 の立場でモデル選択[1/2]
●
    詳細は1.3参照
    ●
        確認用集合(検証用集合:validation set)で予測性能
        のよいモデルを考える
    ●
        テスト集合(Test Set)で選んだモデルの性能を評価
●
    性能の尺度をみつけるために情報量基準
    (Information Criterion)を使い、これが最大に
    なるモデルを選んだ!!
ベイズ以外 の立場でモデル選択[2/2]
●
    短所
    ●
        (AICやBICは)モデルパラメータの不確実性を考慮し
        ておらず、過度に単純なモデルを選んでしまう
    ●
        テスト集合(Test Set)で選んだモデルの性能を評価
●
    複雑さに罰金(penalty?)を与える方法として、
    完全なベイズアプローチを採用する!!
    →「3.4 ベイズモデル比較」で説明!!
ベイズの立場でのモデル比較
●
    モデル選択における不確かさを表すために確率
    を用いる。
●
    p(Mi|D) ∝ p(Mi)p(D|Mi) ※(3.66)式
     p(Mi|D) →モデルの事後分布 ※Dは訓練集合
     p(Mi)  →事前確率分布
     p(D|Mi) →モデルエビデンス/周辺尤度
●
    ここではモデルエビデンス(Model         Evidence)が
    重要である!!
モデルエビデンスとは?
●   モデルの空間でパラメタを周辺化した尤度関数
●   周辺尤度(marginal likelihood)
    ●   パラメタを事前分布からランダムにサンプリングされたこ
        とで手元にあるデータ集合Dから生成される確率とみなせる
        (11章参照)
●   2つのモデルに対するエビデンスの比
    →ベイズ因子(Bayes factor)
●   ベイズの定理(P.14)によってパラメタの事後確率を計
    算するときの分母に現れる正規化定数そのもの
    ((3.69)式参照)
モデルエビデンスの評価
●   パラメタに関する積分を単純近似することでモデ
    ルエビデンスの別の解釈ができる!!
    ・・・以下、解析のお話((3.70)式~(3.72)式およ
    び図3-12。詳細は3.5参照)
●   解析の流れ
    ●   図3-12から(3.70)式の導出
    ●
        (3.70)式で対数をとる→(3.71)式
         ※解析の常套手法?(積を和で表現できるから?)
    ●   (3.71)式を汎化?したもの→(3.72)式 ※M〓1が3.71式
モデル選択[1/2]
●   「考えているモデルの集合の中にデータが生成される真の
    分布が含まれている」と仮定
    →ベイズモデル比較で正しいモデル選択が可能
●   真のモデルと偽のモデルのエビデンスの比(ベイズ因子)を
    データ集合の分布に関して平均することで得られる期待ベ
    イズ因子
    →カルバックライブラ情報量(Kullback-Leibler
    divergence)  ※(3.73)式
●   2つのモデルが等しいときだけ0で、それ以外の場合は常
    に正の値となる
    →正しいモデルのベイズ因子の方が常に大。
モデル選択[2/2]
●
    真(True)のモデルがあった時に、モデルエビデ
    ンスとのカルバック距離が0に近いほど真のモ
    デルに近そうだと判断する
●
    しかし2つのモデルのエビデンス比を考えてか
    ら極限をとることで意味のある値を得られるこ
    ともある
    →実際の応用ではテスト用の独立なデータ集合
    をとっておき、それを用いて最終的なシステム
    の全体性能を評価するほうがよい

More Related Content

What's hot

model selection and information criteria part 1
model selection and information criteria part 1model selection and information criteria part 1
model selection and information criteria part 1Masafumi Enomoto
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7matsuolab
 
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)Ryosuke Sasaki
 
model selection and information criteria part 2
model selection and information criteria part 2model selection and information criteria part 2
model selection and information criteria part 2Masafumi Enomoto
 
データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章Hirofumi Tsuruta
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
Prml5 6
Prml5 6Prml5 6
Prml5 6K5_sem
 
MLデザインパターン入門_Cascade
MLデザインパターン入門_CascadeMLデザインパターン入門_Cascade
MLデザインパターン入門_CascadeMasakazu Shinoda
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
基礎構文班22回目 試験対策もどき
基礎構文班22回目 試験対策もどき基礎構文班22回目 試験対策もどき
基礎構文班22回目 試験対策もどきXMLProJ2014
 
Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2harmonylab
 

What's hot (20)

model selection and information criteria part 1
model selection and information criteria part 1model selection and information criteria part 1
model selection and information criteria part 1
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
 
model selection and information criteria part 2
model selection and information criteria part 2model selection and information criteria part 2
model selection and information criteria part 2
 
データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
DecisionMaker
DecisionMakerDecisionMaker
DecisionMaker
 
Prml5 6
Prml5 6Prml5 6
Prml5 6
 
MLデザインパターン入門_Cascade
MLデザインパターン入門_CascadeMLデザインパターン入門_Cascade
MLデザインパターン入門_Cascade
 
PRMLrevenge 4.4
PRMLrevenge 4.4PRMLrevenge 4.4
PRMLrevenge 4.4
 
PRML8章
PRML8章PRML8章
PRML8章
 
Prml 4.3
Prml 4.3Prml 4.3
Prml 4.3
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
 
レポート1
レポート1レポート1
レポート1
 
基礎構文班22回目 試験対策もどき
基礎構文班22回目 試験対策もどき基礎構文班22回目 試験対策もどき
基礎構文班22回目 試験対策もどき
 
W8PRML5.1-5.3
W8PRML5.1-5.3W8PRML5.1-5.3
W8PRML5.1-5.3
 
Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2
 

Similar to Prml3 4

Code complete ch22_developper_test
Code complete ch22_developper_testCode complete ch22_developper_test
Code complete ch22_developper_testSho Shimauchi
 
順序データでもベイズモデリング
順序データでもベイズモデリング順序データでもベイズモデリング
順序データでもベイズモデリング. .
 

Similar to Prml3 4 (8)

PRML Chapter 14
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
 
強化学習5章
強化学習5章強化学習5章
強化学習5章
 
Code complete ch22_developper_test
Code complete ch22_developper_testCode complete ch22_developper_test
Code complete ch22_developper_test
 
Tokyo r7 sem_20100724
Tokyo r7 sem_20100724Tokyo r7 sem_20100724
Tokyo r7 sem_20100724
 
ma99992010id512
ma99992010id512ma99992010id512
ma99992010id512
 
ma99992011id513
ma99992011id513ma99992011id513
ma99992011id513
 
順序データでもベイズモデリング
順序データでもベイズモデリング順序データでもベイズモデリング
順序データでもベイズモデリング
 
PRML第3章_3.3-3.4
PRML第3章_3.3-3.4PRML第3章_3.3-3.4
PRML第3章_3.3-3.4
 

More from K5_sem

Ryogoku performance meeting4
Ryogoku performance meeting4Ryogoku performance meeting4
Ryogoku performance meeting4K5_sem
 
マジックとITの可能性
マジックとITの可能性マジックとITの可能性
マジックとITの可能性K5_sem
 
Tmp20130824
Tmp20130824Tmp20130824
Tmp20130824K5_sem
 
Tmp20130822
Tmp20130822Tmp20130822
Tmp20130822K5_sem
 
Prml7 2
Prml7 2Prml7 2
Prml7 2K5_sem
 
Bsd5.12.3
Bsd5.12.3Bsd5.12.3
Bsd5.12.3K5_sem
 
Bsd5.10.1
Bsd5.10.1Bsd5.10.1
Bsd5.10.1K5_sem
 
Oss magic2
Oss magic2Oss magic2
Oss magic2K5_sem
 
Oss magic
Oss magicOss magic
Oss magicK5_sem
 
Prml3 4
Prml3 4Prml3 4
Prml3 4K5_sem
 
Technologyand region
Technologyand regionTechnologyand region
Technologyand regionK5_sem
 

More from K5_sem (11)

Ryogoku performance meeting4
Ryogoku performance meeting4Ryogoku performance meeting4
Ryogoku performance meeting4
 
マジックとITの可能性
マジックとITの可能性マジックとITの可能性
マジックとITの可能性
 
Tmp20130824
Tmp20130824Tmp20130824
Tmp20130824
 
Tmp20130822
Tmp20130822Tmp20130822
Tmp20130822
 
Prml7 2
Prml7 2Prml7 2
Prml7 2
 
Bsd5.12.3
Bsd5.12.3Bsd5.12.3
Bsd5.12.3
 
Bsd5.10.1
Bsd5.10.1Bsd5.10.1
Bsd5.10.1
 
Oss magic2
Oss magic2Oss magic2
Oss magic2
 
Oss magic
Oss magicOss magic
Oss magic
 
Prml3 4
Prml3 4Prml3 4
Prml3 4
 
Technologyand region
Technologyand regionTechnologyand region
Technologyand region
 

Prml3 4

  • 1. PRML3.4 ベイズモデル比較 2012/7/16 @K5_sem PRML読書会
  • 2. 概要 ● 3.4ではベイズの立場で モデル選択(Model Selection)について考える ● 3.4の流れ ● ベイズ以外の立場でモデル選択 ● ベイズの立場でモデル選択 ● モデルエビデンスの評価 ● モデル選択
  • 3. ベイズ以外 の立場でモデル選択[1/2] ● 詳細は1.3参照 ● 確認用集合(検証用集合:validation set)で予測性能 のよいモデルを考える ● テスト集合(Test Set)で選んだモデルの性能を評価 ● 性能の尺度をみつけるために情報量基準 (Information Criterion)を使い、これが最大に なるモデルを選んだ!!
  • 4. ベイズ以外 の立場でモデル選択[2/2] ● 短所 ● (AICやBICは)モデルパラメータの不確実性を考慮し ておらず、過度に単純なモデルを選んでしまう ● テスト集合(Test Set)で選んだモデルの性能を評価 ● 複雑さに罰金(penalty?)を与える方法として、 完全なベイズアプローチを採用する!! →「3.4 ベイズモデル比較」で説明!!
  • 5. ベイズの立場でのモデル比較 ● モデル選択における不確かさを表すために確率 を用いる。 ● p(Mi|D) ∝ p(Mi)p(D|Mi) ※(3.66)式 p(Mi|D) →モデルの事後分布 ※Dは訓練集合 p(Mi)  →事前確率分布 p(D|Mi) →モデルエビデンス/周辺尤度 ● ここではモデルエビデンス(Model Evidence)が 重要である!!
  • 6. モデルエビデンスとは? ● モデルの空間でパラメタを周辺化した尤度関数 ● 周辺尤度(marginal likelihood) ● パラメタを事前分布からランダムにサンプリングされたこ とで手元にあるデータ集合Dから生成される確率とみなせる (11章参照) ● 2つのモデルに対するエビデンスの比 →ベイズ因子(Bayes factor) ● ベイズの定理(P.14)によってパラメタの事後確率を計 算するときの分母に現れる正規化定数そのもの ((3.69)式参照)
  • 7. モデルエビデンスの評価 ● パラメタに関する積分を単純近似することでモデ ルエビデンスの別の解釈ができる!! ・・・以下、解析のお話((3.70)式~(3.72)式およ び図3-12。詳細は3.5参照) ● 解析の流れ ● 図3-12から(3.70)式の導出 ● (3.70)式で対数をとる→(3.71)式 ※解析の常套手法?(積を和で表現できるから?) ● (3.71)式を汎化?したもの→(3.72)式 ※M〓1が3.71式
  • 8. モデル選択[1/2] ● 「考えているモデルの集合の中にデータが生成される真の 分布が含まれている」と仮定 →ベイズモデル比較で正しいモデル選択が可能 ● 真のモデルと偽のモデルのエビデンスの比(ベイズ因子)を データ集合の分布に関して平均することで得られる期待ベ イズ因子 →カルバックライブラ情報量(Kullback-Leibler divergence)  ※(3.73)式 ● 2つのモデルが等しいときだけ0で、それ以外の場合は常 に正の値となる →正しいモデルのベイズ因子の方が常に大。
  • 9. モデル選択[2/2] ● 真(True)のモデルがあった時に、モデルエビデ ンスとのカルバック距離が0に近いほど真のモ デルに近そうだと判断する ● しかし2つのモデルのエビデンス比を考えてか ら極限をとることで意味のある値を得られるこ ともある →実際の応用ではテスト用の独立なデータ集合 をとっておき、それを用いて最終的なシステム の全体性能を評価するほうがよい