SlideShare a Scribd company logo
PRML3.4 ベイズモデル比較




         2012/7/16
              @K5_sem
            PRML読書会
概要
●
    3.4ではベイズの立場で モデル選択(Model
    Selection)について考える
●
    3.4の流れ
    ●
        ベイズ以外の立場でモデル選択
    ●
        ベイズの立場でモデル選択
    ●
        モデルエビデンスの評価
    ●
        モデル選択
ベイズ以外 の立場でモデル選択[1/2]
●
    詳細は1.3参照
    ●
        確認用集合(検証用集合:validation set)で予測性能
        のよいモデルを考える
    ●
        テスト集合(Test Set)で選んだモデルの性能を評価
●
    性能の尺度をみつけるために情報量基準
    (Information Criterion)を使い、これが最大に
    なるモデルを選んだ!!
ベイズ以外 の立場でモデル選択[2/2]
●
    短所
    ●
        (AICやBICは)モデルパラメータの不確実性を考慮し
        ておらず、過度に単純なモデルを選んでしまう
    ●
        テスト集合(Test Set)で選んだモデルの性能を評価
●
    複雑さに罰金(penalty?)を与える方法として、
    完全なベイズアプローチを採用する!!
    →「3.4 ベイズモデル比較」で説明!!
ベイズの立場でのモデル比較
●
    モデル選択における不確かさを表すために確率
    を用いる。
●
    p(Mi|D) ∝ p(Mi)p(D|Mi) ※(3.66)式
     p(Mi|D) →モデルの事後分布 ※Dは訓練集合
     p(Mi)  →事前確率分布
     p(D|Mi) →モデルエビデンス/周辺尤度
●
    ここではモデルエビデンス(Model         Evidence)が
    重要である!!
モデルエビデンスとは?
●   モデルの空間でパラメタを周辺化した尤度関数
●   周辺尤度(marginal likelihood)
    ●   パラメタを事前分布からランダムにサンプリングされたこ
        とで手元にあるデータ集合Dから生成される確率とみなせる
        (11章参照)
●   2つのモデルに対するエビデンスの比
    →ベイズ因子(Bayes factor)
●   ベイズの定理(P.14)によってパラメタの事後確率を計
    算するときの分母に現れる正規化定数そのもの
    ((3.69)式参照)
モデルエビデンスの評価
●   パラメタに関する積分を単純近似することでモデ
    ルエビデンスの別の解釈ができる!!
    ・・・以下、解析のお話((3.70)式~(3.72)式およ
    び図3-12。詳細は3.5参照)
●   解析の流れ
    ●   図3-12から(3.70)式の導出
    ●
        (3.70)式で対数をとる→(3.71)式
         ※解析の常套手法?(積を和で表現できるから?)
    ●   (3.71)式を汎化?したもの→(3.72)式 ※M〓1が3.71式
モデル選択[1/2]
●   「考えているモデルの集合の中にデータが生成される真の
    分布が含まれている」と仮定
    →ベイズモデル比較で正しいモデル選択が可能
●   真のモデルと偽のモデルのエビデンスの比(ベイズ因子)を
    データ集合の分布に関して平均することで得られる期待ベ
    イズ因子
    →カルバックライブラ情報量(Kullback-Leibler
    divergence)  ※(3.73)式
●   2つのモデルが等しいときだけ0で、それ以外の場合は常
    に正の値となる
    →正しいモデルのベイズ因子の方が常に大。
モデル選択[2/2]
●
    真(True)のモデルがあった時に、モデルエビデ
    ンスとのカルバック距離が0に近いほど真のモ
    デルに近そうだと判断する
●
    しかし2つのモデルのエビデンス比を考えてか
    ら極限をとることで意味のある値を得られるこ
    ともある
    →実際の応用ではテスト用の独立なデータ集合
    をとっておき、それを用いて最終的なシステム
    の全体性能を評価するほうがよい

More Related Content

Viewers also liked

Bsd5.10.1
Bsd5.10.1Bsd5.10.1
Bsd5.10.1K5_sem
 
Bsd5.12.3
Bsd5.12.3Bsd5.12.3
Bsd5.12.3K5_sem
 
Tmp20130822
Tmp20130822Tmp20130822
Tmp20130822
K5_sem
 
マジックとITの可能性
マジックとITの可能性マジックとITの可能性
マジックとITの可能性
K5_sem
 
Oss magic
Oss magicOss magic
Oss magic
K5_sem
 
Prml5 6
Prml5 6Prml5 6
Prml5 6
K5_sem
 
Tmp20130824
Tmp20130824Tmp20130824
Tmp20130824
K5_sem
 
Prml7 2
Prml7 2Prml7 2
Prml7 2
K5_sem
 

Viewers also liked (8)

Bsd5.10.1
Bsd5.10.1Bsd5.10.1
Bsd5.10.1
 
Bsd5.12.3
Bsd5.12.3Bsd5.12.3
Bsd5.12.3
 
Tmp20130822
Tmp20130822Tmp20130822
Tmp20130822
 
マジックとITの可能性
マジックとITの可能性マジックとITの可能性
マジックとITの可能性
 
Oss magic
Oss magicOss magic
Oss magic
 
Prml5 6
Prml5 6Prml5 6
Prml5 6
 
Tmp20130824
Tmp20130824Tmp20130824
Tmp20130824
 
Prml7 2
Prml7 2Prml7 2
Prml7 2
 

Similar to Prml3 4

PRML Chapter 14
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
Masahito Ohue
 
強化学習5章
強化学習5章強化学習5章
強化学習5章
hiroki yamaoka
 
Code complete ch22_developper_test
Code complete ch22_developper_testCode complete ch22_developper_test
Code complete ch22_developper_test
Sho Shimauchi
 
Tokyo r7 sem_20100724
Tokyo r7 sem_20100724Tokyo r7 sem_20100724
Tokyo r7 sem_20100724
osamu morimoto
 
順序データでもベイズモデリング
順序データでもベイズモデリング順序データでもベイズモデリング
順序データでもベイズモデリング
. .
 
PRML第3章_3.3-3.4
PRML第3章_3.3-3.4PRML第3章_3.3-3.4
PRML第3章_3.3-3.4
Takashi Tamura
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
matsuolab
 

Similar to Prml3 4 (9)

PRML Chapter 14
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
 
強化学習5章
強化学習5章強化学習5章
強化学習5章
 
Code complete ch22_developper_test
Code complete ch22_developper_testCode complete ch22_developper_test
Code complete ch22_developper_test
 
Tokyo r7 sem_20100724
Tokyo r7 sem_20100724Tokyo r7 sem_20100724
Tokyo r7 sem_20100724
 
ma99992010id512
ma99992010id512ma99992010id512
ma99992010id512
 
ma99992011id513
ma99992011id513ma99992011id513
ma99992011id513
 
順序データでもベイズモデリング
順序データでもベイズモデリング順序データでもベイズモデリング
順序データでもベイズモデリング
 
PRML第3章_3.3-3.4
PRML第3章_3.3-3.4PRML第3章_3.3-3.4
PRML第3章_3.3-3.4
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
 

Prml3 4

  • 1. PRML3.4 ベイズモデル比較 2012/7/16 @K5_sem PRML読書会
  • 2. 概要 ● 3.4ではベイズの立場で モデル選択(Model Selection)について考える ● 3.4の流れ ● ベイズ以外の立場でモデル選択 ● ベイズの立場でモデル選択 ● モデルエビデンスの評価 ● モデル選択
  • 3. ベイズ以外 の立場でモデル選択[1/2] ● 詳細は1.3参照 ● 確認用集合(検証用集合:validation set)で予測性能 のよいモデルを考える ● テスト集合(Test Set)で選んだモデルの性能を評価 ● 性能の尺度をみつけるために情報量基準 (Information Criterion)を使い、これが最大に なるモデルを選んだ!!
  • 4. ベイズ以外 の立場でモデル選択[2/2] ● 短所 ● (AICやBICは)モデルパラメータの不確実性を考慮し ておらず、過度に単純なモデルを選んでしまう ● テスト集合(Test Set)で選んだモデルの性能を評価 ● 複雑さに罰金(penalty?)を与える方法として、 完全なベイズアプローチを採用する!! →「3.4 ベイズモデル比較」で説明!!
  • 5. ベイズの立場でのモデル比較 ● モデル選択における不確かさを表すために確率 を用いる。 ● p(Mi|D) ∝ p(Mi)p(D|Mi) ※(3.66)式 p(Mi|D) →モデルの事後分布 ※Dは訓練集合 p(Mi)  →事前確率分布 p(D|Mi) →モデルエビデンス/周辺尤度 ● ここではモデルエビデンス(Model Evidence)が 重要である!!
  • 6. モデルエビデンスとは? ● モデルの空間でパラメタを周辺化した尤度関数 ● 周辺尤度(marginal likelihood) ● パラメタを事前分布からランダムにサンプリングされたこ とで手元にあるデータ集合Dから生成される確率とみなせる (11章参照) ● 2つのモデルに対するエビデンスの比 →ベイズ因子(Bayes factor) ● ベイズの定理(P.14)によってパラメタの事後確率を計 算するときの分母に現れる正規化定数そのもの ((3.69)式参照)
  • 7. モデルエビデンスの評価 ● パラメタに関する積分を単純近似することでモデ ルエビデンスの別の解釈ができる!! ・・・以下、解析のお話((3.70)式~(3.72)式およ び図3-12。詳細は3.5参照) ● 解析の流れ ● 図3-12から(3.70)式の導出 ● (3.70)式で対数をとる→(3.71)式 ※解析の常套手法?(積を和で表現できるから?) ● (3.71)式を汎化?したもの→(3.72)式 ※M〓1が3.71式
  • 8. モデル選択[1/2] ● 「考えているモデルの集合の中にデータが生成される真の 分布が含まれている」と仮定 →ベイズモデル比較で正しいモデル選択が可能 ● 真のモデルと偽のモデルのエビデンスの比(ベイズ因子)を データ集合の分布に関して平均することで得られる期待ベ イズ因子 →カルバックライブラ情報量(Kullback-Leibler divergence)  ※(3.73)式 ● 2つのモデルが等しいときだけ0で、それ以外の場合は常 に正の値となる →正しいモデルのベイズ因子の方が常に大。
  • 9. モデル選択[2/2] ● 真(True)のモデルがあった時に、モデルエビデ ンスとのカルバック距離が0に近いほど真のモ デルに近そうだと判断する ● しかし2つのモデルのエビデンス比を考えてか ら極限をとることで意味のある値を得られるこ ともある →実際の応用ではテスト用の独立なデータ集合 をとっておき、それを用いて最終的なシステム の全体性能を評価するほうがよい