Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

ベイズファクターとモデル選択

13,530 views

Published on

2014年6月8日に広島大学にて開催された魁!! 広島ベイズ塾のワークショップで発表したスライド。

Published in: Data & Analytics
  • Be the first to comment

ベイズファクターとモデル選択

  1. 1. ベイズファクターと モデル選択
  2. 2. 自己紹介 • 前田和寛(MAEDA Kazuhiro) • 比治山大学短期大学部 総合生活デザイン学科 • kazum@hijiyama-u.ac.jp • http://kz-md.net/ • Twitter: @kazutan #ビールうめぇ
  3. 3. 本日の内容 • ベイズの定理について考える • ベイズファクターとモデル選択 ※イメージを掴んでもらうことを意識してます • 細かいところで用語が不適切な場合があるかもしれません
  4. 4. ベイズの定理について考える
  5. 5. ベイズの式 𝑃 𝐴|𝐵 = 𝑃(𝐵|𝐴)𝑃(𝐴) 𝑃(𝐵) • 𝑃 𝐴 • ある事象Aが起こる確率 • 𝑃 𝐵 • ある事象Bが起こる確率 • 𝑃 𝐵 𝐴 • ある事象Aが起こった上での 事象Bが起こる確率 • 𝑃 𝐴 𝐵 • ある事象Bが起こった上での 事象Aが起こる確率 A B
  6. 6. ベイズの式(例) 𝑃 𝐴|𝐵 = 𝑃(𝐵|𝐴)𝑃(𝐴) 𝑃(𝐵) • 𝑃 𝐴 • 事象「カープのホームゲーム」が 起こる確率 • 𝑃 𝐵 • 事象「カープが勝つ」が起こる確 率 • 𝑃 𝐵 𝐴 • 「カープのホームゲーム」という 条件での「カープが勝った」確率 • 𝑃 𝐴 𝐵 • 「カープが勝った」という条件で の「カープのホームゲーム」確率 A B
  7. 7. 実際に計算してみる(1) 勝 負 計 ホーム 18 7 25 アウェイ 12 14 26 計 30 21 51 • 𝑃 𝐴 = 0.49 • 事象「カープのホームゲーム」が 起こる確率 • 𝑃 𝐵 = 0.59 • 事象「カープが勝つ」が起こる確 率 • 𝑃 𝐵 𝐴 = 0.35 0.49 = 0.72 • 「カープのホームゲーム」という 条件での「カープが勝った」確率 • 𝑃 𝐴 𝐵 = 0.72∗0.49 0.59 = 0.60 • 「カープが勝った」という条件で の「カープのホームゲーム」確率 勝 負 計 ホーム 0.35 0.14 0.49 アウェイ 0.24 0.27 0.51 計 0.59 0.41 1.00 ※ 2014年5月末までの成績で算出してます
  8. 8. 事前確率と事後確率 𝑃 𝐴|𝐵 = 𝑃(𝐵|𝐴)𝑃(𝐴) 𝑃(𝐵) • Aを「原因」となる事象、Bを 「結果」となる事象として考え ると… • 𝑃 𝐴 • 結果が起こる前、つまり事前の状 態の確率・・・事前確率 • 𝑃 𝐵 • 得られた(測定した)結果 • 𝑃 𝐵 𝐴 • 原因があった時(条件下)での、結 果が発生する確率 • 𝑃 𝐴 𝐵 • その結果が起こった後、つまり事 後の状態の確率・・・事後確率 A B
  9. 9. よぉわからんけぇカープで例えてくれ 𝑃 𝐴|𝐵 = 𝑃(𝐵|𝐴)𝑃(𝐴) 𝑃(𝐵) • A:「カープのホームゲーム」 B:「カープが勝利」 • 𝑃 𝐴 • 「カープがホームゲーム」である 確率 • 𝑃 𝐵 • カープが勝つ確率 • 𝑃 𝐵 𝐴 • 「ホームゲーム」で行われたなら ば「カープが勝つ」確率 • 𝑃 𝐴 𝐵 • 「カープが勝った」というニュー スから、「ホームゲーム」であっ た確率 A B
  10. 10. 仮説(H)とデータ(D)で考えてみよう 𝑃 𝐻|𝐷 = 𝑃(𝐷|𝐻)𝑃(𝐻) 𝑃(𝐷) • H:なんらかの仮説 D:得られたデータ • 𝑃 𝐻 • (データを取る前の)仮説の確率 • 𝑃 𝐷 • そのデータが得られる確率 • 𝑃 𝐷 𝐻 • その仮説が正しいとするときに、 そのデータが得られる確率 • 𝑃 𝐻 𝐷 • データが得られた後での、仮説 が正しい確率 H D
  11. 11. よぉわからんけぇカープで(ry 𝑃 𝐻|𝐷 = 𝑃(𝐷|𝐻)𝑃(𝐻) 𝑃(𝐷) • 6月1日「カープが勝った」が、 この試合が「ホームゲーム」で ある確率は? • H:「6/1はホームゲーム」 D:「カープが勝つ」 • ホームゲームの確率は0.49 • 5月末カープの勝率は0.59 • 同ホームでの勝率は0.72 • 𝑃 𝐻 • ホームゲームが開催される確率 • 𝑃 𝐷 • カープの勝率 • 𝑃 𝐷 𝐻 • ホームでのカープの勝率 • 𝑃 𝐻 𝐷 • 「カープが勝った」ときのホーム ゲームである確率 • さあ計算してみよう! • (てかもう答え前に出してる)
  12. 12. 𝑃(𝐷|𝐻)について踏み込んでみよう • 仮説Hが正しいとした時に得られるデータ(D)の確率 • カープで(ry : ホームゲーム(仮説H)である時の、5月末までの成績(デー タ)で得られるカープの勝率 • 言い換えれば… 得られたデータから、その仮説がどのくらい「もっともなのか」を表 す確率 • この6/1の勝利ゲームが「ホームゲーム」だった、と仮定しよう • ホームゲームは0.49だけ行われてる…からそのまま考えたらこのとおりだけど… • それじゃあ、ホームゲームで今のところ実際にどれだけ勝ってる?→0.72 • てことは、データからみたら、この仮定はこの確率くらい「もっともらしい」よ ね。 • この𝑃(𝐷|𝐻)は、尤度と言われる • 母数を含む仮説モデルの場合。データ分布とも。
  13. 13. 事前分布・事後分布・尤度 • ベイズの式は、以下のように表現できます • 事後確率 = 尤度 × 事前確率 基準化定数 • 基準化定数はさっきの分母P(D)のこと。 「全事象の確率の総和は1である」という制約から、そうなるように設定 …つまり「定数」です • 定数は定数なので、更に書き換えると… • [事後確率] ∝ [尤度]×[事前確率] • 事後確率は、尤度と事前確率をかけたものに比例する • つまりこの2つが重要となっている!
  14. 14. ベイスファクターと モデル選択
  15. 15. ホーム(H0)とアウェー(H1)で考えてみる • 仮説H0 :ホームゲーム 𝑃 𝐻0|𝐷 = 𝑃(𝐷|𝐻0)𝑃(𝐻0) 𝑃(𝐷) • さっきまで説明したものと同一 • 仮説H1 :アウェーゲーム 𝑃 𝐻1|𝐷 = 𝑃(𝐷|𝐻1)𝑃(𝐻1) 𝑃(𝐷) • 仮説「アウェー」になっている • それ以外は同一 どっちがいい仮説(モデル)なの?
  16. 16. ベイズファクター • さっきの2つの仮説(モデル)について、事後確率を比べてみる (比を取る) 𝑃 𝐻1|𝐷 𝑃 𝐻0|𝐷 = 𝑃(𝐷|𝐻1)𝑃(𝐻1) 𝑃(𝐷|𝐻0)𝑃(𝐻0) = 𝑃(𝐷|𝐻1) 𝑃(𝐷|𝐻0) × 𝑃(𝐻1) 𝑃(𝐻0) • これは、[事後確率の比]=[尤度の比]×[事前確率の比]となります • この式を変形すると… • [尤度の比(ベイズファクター)] = [事後確率の比(事後オッズ)] [事前確率の比(事前オッズ)] • つまり、「2つの仮説(モデル)のもっともらしさを比較したもの」 がベイズファクター!
  17. 17. なにがどうなればいいの? • ベイズファクターは簡単に言うと 「2つのモデルそれぞれのもっとらしさを比べた指標」 • 先の例で言うと… • ベイズファクターが1より大きい → H1のモデルの方が(相対的に)もっともらしい、となる • ベイズファクターが1より小さい →H0 のモデルの方が(相対的に)もっともらしい、となる • ではカープで… • 𝑃 𝐻1|𝐷 𝑃 𝐻0|𝐷 = 0.47 0.72 =0.65 • これってどうなの?
  18. 18. ベイズファクターの基準 • Kass & Raftery(1995)の基準 • 基準というか「目安」 • 他にも有名なものが色々あり • 大切なのは、「有意水準」 みたいにズバッと切るもの ではないこと • そもそもそれに問題提起され て広がってきた側面もあるん ですしね・・・ BF 2logBF M0と比べた M1に対する判断 BF < 1 2logBF < 0 M0の方が良い 1 < BF < 3 0 < 2logBF <2 かろうじて優れてい る 3 < BF < 12 2 < 2logBF < 5 優れている 12 < BF < 150 5 < 2logBF < 10 かなり優れている 150 < BF 10 < 2logBF 非常に優れている 追記: 先の式で大きい方を分子に持ってきて、 その上でBFを見たほうがスムーズです。 あと基準(目安)はいろいろあります。
  19. 19. ベイズファクターの問題点 • 2つのモデルの相対的比較である • ベイズファクターの式: 2つのモデルの「もっとらしさの比」 →数値の大小は、「2つを比較してどっちがいいか」にしかならない • 複数の指標を算出して、トータルで考えていくべし → この後紹介します • 計算が鬼(になることが多い) • 詳細は省略します… • パラメータが増えたり、事前分布などによって大変になるようです
  20. 20. 他のモデル指標も考えよう BIC • Bayes information criterion(ベイズ情報量基準) 𝐵𝐼𝐶ℎ = −2 log 𝑃 𝐷 𝜃ℎ, 𝑀ℎ + 𝐾ℎ log 𝐼 𝜃ℎはモデル𝑀ℎのもとでのパラメータの最尤推定値 𝐾ℎはパラメータの数、𝐼はサンプルサイズ • 2つのモデルでそれぞれ算出された𝐵𝐼𝐶0と𝐵𝐼𝐶1の差が、 2logBFの近似となる • 算出が比較的カンタンなので、用いられることも多い • ただし、これはベイズファクターとは別物だということには注意
  21. 21. 他のモデル指標も考えよう DIC • Deviance information criterion(偏差情報量基準) 𝐷𝐼𝐶ℎ = − 2 𝑇 𝑡=1 𝑇 log 𝑃 𝐷 𝜃ℎ (𝑡) , 𝑀ℎ + 2𝐾ℎ • 𝜃ℎ (𝑡) はパラメータ𝜃の事後分布から得られたT個の無作為標本 • この𝜃ℎ (𝑡) にマルコフ連鎖の連鎖要素をそのまま持ってこれる → MCMCとの相性がいい • 2つのモデルについてDICを算出し、値が小さいモデルのほうが データに対する当てはまりがいいと評価 • また、この指標も相対的な比較のための指標
  22. 22. 他のモデル指標も考えよう 事後予測p 値 • 事後分布が算出されるんだから、それに基づく分布から標本分 布をだせるんでね? → 事後予測分布 • そしたらこの分布と元データの分布は近くなるはずでね? → 指標化したのが事後予測p値 • 0.5に近ければモデルのデータへの当てはまりがいい • 2つのモデル比較ではなく、1つのモデルに対するデータへの当てはま りを見る指標 • ただし、実際に事後予測p値を用いるときには、ベイズファクターなど を補完するものとしたほうが無難とのこと
  23. 23. そもそもなんでベイズファクターを…? • 帰無仮説の呪縛からの開放 • 伝統的な検定は「帰無仮説」と「対立仮説」という構図 • でもベイズファクターなら「独立する2つのモデル(仮説)」を比較 ・・・別に「帰無仮説」なんてなくていい • 正規分布の呪縛からの開放 • このベイズの式には、事前分布を組み込んでいる • 「事前分布は正規分布でなくていい」 → より柔軟な統計モデルをあてはめて検討可能 ・・・ベイズ推定が利用される ※ この先は、あとのメンバーにお任せします
  24. 24. さいごに ベイズファクターは2つの対立する 仮説について,データが支持 する程度の比を直接数量化 した量である。100倍支持するのであ れば十分であり, 1.04倍支持するのでは不十分だ,ということに は多くの 研究者が同意するだろう。しかしながら,文献中には 明 確なガイドラインはなく,また我々もそれを提供しな い。な ぜならば,恣意的な決定規則を与えたくはないか らだ。 p値についてのよく知られた警句を思い出すとよ い: 『神はp<.05をp<.06と等しく,そして同じくらい 強く愛してく ださる』 Rosnow & Rosenthal (1989)の一部より(岡田, 2014)
  25. 25. 参考資料(主なもののみ記載) • 涌井良幸「道具としてのベイズ時計」 • 入門書としてまず読んでみるにはちょうどいいです • 今回の前半部分を作成するのに参考にさせていただきました • 大久保街亜・岡田謙介「伝えるための心理統計」 • 本書の6章2節にベイズ統計学に関する説明があります • ベイズファクターを用いた具体例も記載してあります • 豊田秀樹(編)「マルコフ連鎖モンテカルロ法」 • 通称MCMC本。 • 本書の3章2節にベイズファクター及びモデル指標の説明があります • 岡田謙介 (2014). ベイズ統計による情報仮説の評価は分散分析にとって代 わるのか? 基礎心理学研究, 32(2), 223-231

×