SlideShare a Scribd company logo
1 of 36
Download to read offline
PRML読書会第11回
8.4 グラフ    ルモ ルによる推

          2010-02-06
      SUHARA YOSHIHIKO
       (id:sleepy_yoshi)
目次
• 8.4 グラフ        ルモ ルによる推
 –   8.4.1   連鎖における推
 –   8.4.2   木
 –   8.4.3   因子グラフ               ここまで
 –   8.4.4   積和アルゴリズム
 –   8.4.5   max-sumアルゴリズム
 –   8.4.6   一般のグラフにおける      推
 –   8.4.7   ループあり    伝播
 –   8.4.8   グラフ構造の学習



                                    1
本発表のポイント
(1) 連鎖ノードにおけるメッセージパッシング
(2) 因子グラフとは? 因子グラフの作り方




                          2
8.4 グラフィカルモデルに
     お



                 3
グラフ         ルモ ルにおける推
• 目的: グラフ   ルモ ルにおける推
 – いくつかのノードが観測された際に,残ったノード
   (のうちいくつか) の事後分布を知りたい


• アプローチ
 – グラフ構造を 用して局所的なメッセージの伝播を
   用いて     を う
 – cf.   は10章で紹介




                             4
???
                             イズの                      の
• 2変数x, y上の同時分布を因数分解する
(a) p ( x, y ) = p ( x) p ( y | x)


(b) yが観測された

(c) ???
             p ( y ) = ∑ p ( y | x' ) p ( x' )   (8.47)
                        x'

                          p ( y | x) p ( x)
             p( x | y ) =                        (8.48)
                               p( y )

          p( x, y ) = p( x | y ) p( y ) = p( y | x) p( x) ではダメ?    5
8.4.1   にお



             6
無向連鎖のグラフの
                                                              K状態       変数




      1
p(x) = ψ 1, 2 ( x1 , x2 ) 2,3 ( x2 , x3 )Lψ
                        ψ                     −1,   (x   −1   ,x   )   (8.49)
      Z
                                                    K×Kの表
                                 N-1個
  ⇒ 同時分布は (N-1) K2 個のパラメータを持つ

           習
          ※有向グラフと同じ条件付き                 性を持つ


                                                                          7
周辺分布の推
• 連鎖 中のノードの周辺分布を推                                したい
 – どのノードも観測されていない場合
                                   コレ

                         xn



周辺分布 p ( xn ) =   ∑L ∑∑L ∑ p(x)
                  x1   xn−1 xn+1        x
                                                       (8.50)

                                            xn以外で周辺化

 ⇒ xが取りうる状態の数: KN個
       ポイント: 連鎖の さNに対して
     指数オーダーO(KN)のメモリ と計算                                        8
STOP! ポテンシャル関数って何なのさ?

• (規格化されるので) ψ(xC) > 0 であればなんでもよい
 –  えばボル マン分布: ψ C (x C ) = exp{− E (x C )}
 – エネルギー関数も本文中に記述なし


• ポテンシャル関数の周辺化ってどういうこと?
 – 簡単のためxc={x1,x2},x1,x2は0,1の2                             変数とする

    ψ C ( x1 ) = ∑ exp{− E ( x1 , x2 )}
                x2
             = exp{− E ( x1 , x2 = 0)} + exp{− E ( x1 , x2 = 1)}

の
 ポテンシャル関数を使って説明しているのは一般性を保つため
  くなったら適   に  変換すべし
                                                                   9
周辺分布の                                               よい推 :                                                          て
グラフ       ルモ ルの条件付き                                              性を 用
xNの周辺化の               ∑ψ (x , x )ψ (x , x )Lψ
                      x
                                1, 2    1        2       2,3    2       3                      −1,   (x   −1   ,x   )
               = ψ 1, 2 ( x1 , x2 ) 2,3 ( x2 , x3 )L ∑ψ
                                  ψ                                                            −1,   (x   −1   ,x   )
                                                                                 x
                                                                                               xNに依存する部分だけでよい


周辺化のイメージ              ψ    −1,     (x       −1   ) ≡ ∑ψ         −1,     (x           −1   ,x   )
                                                     x
          ψ          (x        = 1, x = 1)          L ψ              (x      = K , x = 1) 
xNについて         −1,        −1                                   −1,         −1
                                                                                           
周辺化                        M             O                                  M             
          ψ          ( x −1 = 1, x = K ) L ψ                         ( x −1 = K , x = K ) 
              −1,                                             −1,                         


          (ψ    −1,       (x     −1    = 1) L ψ                  −1,       (x        −1    = K ))                       10
周辺分布の                                        よい推 : 本番
                      1
           p ( x) =     ψ 1, 2 ( x1 , x2 )ψ 2,3 ( x2 , x3 )Lψ    −1,   (x   −1   ,x   )
                      Z
                                                     代入

           p( xn ) = ∑L ∑∑ L ∑ p(x)
                        x1        xn−1 xn+1   x


さき どの条件付き                     性を 用
              1                                                                 
   p ( xn ) =   ∑ψ n −1,n ( xn −1 , xn )L ∑ψ 2,3 ( x2 , x3 )∑ψ 1, 2 ( x1 , x2 ) L
              Z x
                              n −1        x           2     x                   
                                                                                 1  

                                                           µα ( xn )
                                                                                 
                             ∑ψ n ,n +1 (xn , xn+1 )L ∑ψ       −1,   (x −1 , x ) L
                              xn+1
                                                      x                          
                                                                                          11
                                                   µ β ( xn )
入れ えによる計算
     • 演算             による計算                    の : ab + ac = a(b + c)
                                                            3回 ⇒ 2回
ψ 1, 2 ( x1 , x2 )   をx1について周辺化
  ψ 1, 2 ( x1 = 1, x2 = 1) L ψ 1, 2 ( x1 = K , x2 = 1)      ψ 1, 2 ( x2 = 1) 
                                                                             
               M           O              M                          M       
 ψ ( x = 1, x = K ) L ψ ( x = K , x = K )                  ψ ( x = K ) 
  1, 2 1           2          1, 2    1        2            1, 2 2           
                       K×Kの演算

   同じことをN-1回繰り返すので,p(xn)を求めるために必要な
   計算 はO(NK2)
                       ポイント: 連鎖の さNに対して
                        線形オーダーO(NK2)の計算                                      12
局所的なメッセージ伝播
           1                                                    規格化係数
  p ( x ) = µ a ( xn ) µ β ( xn )                                         Z = ∑ µ a ( xn ) µ β ( xn )
           Z                                                                    xn

        – μα: 前向きに伝わるメッセージ
        – μβ: 後ろ向きに伝わるメッセージ




前向き                                                  後ろ向き
                                                                                                
 µ a ( xn ) = ∑ψ n −1,n ( xn −1 , xn ) ∑ L         µ β ( xn ) = ∑ψ n,n +1 ( xn , xn +1 ) ∑ L
              xn−1                      xn −2                   xn+1                      xn+ 2 

           = ∑ψ n −1,n ( xn −1 , xn ) µα ( xn −1 )              = ∑ψ n ,n +1 ( xn , xn +1 ) µ β ( xn +1 )
                                                                   xn+1
              xn−1
                                                                                                       13
連鎖上全てのノードに対しての推

• 伝播中すべてのメッセージを保存
  (1) メッセージμαをx1からxNまで前向きに伝播
  (2) メッセージμβをxNからx1まで後ろ向きに伝播
       µ a ( x2 ) µ a ( xn −1 ) µ a ( xn ) µ a ( xn +1 )           µa ( x )




          µ β ( x1 ) µ β ( xn − 2 )   µ β ( xn −1 )   µ β ( xn )   µβ ( x   −1   )
    ※1 計算 は1つのノードに対する計算 の2倍
    ※2 Zは都合のよいノードで計算すればよい

任意のノードの周辺分布を式(8.54)を用いて計算可能
                1
      p ( xn ) = ∑ µ a ( xn ) µ β ( xn ) (8.54)                                      14
                Z xn
演習8.15:                                         する2点の同時分布
   •            する2点の同時分布 p(xn-1, xn)
xn, xn-1以外を周辺化する
                     1
p( xn −1 , xn ) =      ψ     (x , x )
                     Z n −1,n n −1 n
                                                                                            
                    ∑ψ n − 2,n −1 ( xn − 2 , xn −1 )L ∑ψ 2,3 ( x2 , x3 )∑ψ 1, 2 ( x1 , x2 ) L
                     xn− 2
                                                      x2                 x1                 

                                                    µα ( xn−1 )
                                                                          
                    ∑ψ n ,n +1 ( xn , xn +1 )L ∑ψ             (x −1 , x ) L
                                                                                                    ⇒ (8.54)
                                                          −1,
                     xn+1
                                               x                          

                                             µ β ( xn )                                                  15
補足: チャップマン-コルモゴロフの等式

• ホワイトボードで説明




                       16
8.4.2 木



          17
メッセージパッシングの拡張
• ノードの連鎖から成るグラフでは,ノード数に
  線形な時間で      推 可能なことを示した
• 木 (tree) と呼ばれるクラスでも同様に局所的
  なメッセージパッシングによる推 が可能
⇒ 連鎖についてのメッセージパッシングを一般化
  した積和アルゴリズムを導出




                積和アルゴリズムについては
                8.4.4を乞うご期待! 18
木の種類
• 無向木
  – 任意のノード間に 一の   が存在
• 有向木
  – 根 (root) と呼ばれる親を持たないノードを1つだけ持ち,他の全ての
    ノードは親を1つだけ持つ
• 多重木
  – 2つ以上親を持つノードが存在するが,任意の2ノード間の (方向を無
    視した)  が1つしかない有向グラフ




   無向木            有向木          多重木
             モラル化で変化なし     モラル化でループが発生
                                    19
習: モラル化
• 有向グラフから無向グラフへの変換方法
 – 親同士を結婚させる≒できちゃった婚
                             結婚!
  父                     父


      子                      子
               モラル化

                             重婚!        ザ・ばっくれ・バーク
                                        レー・ボーイズ
 父1       父2            父1         父2   by 和




      子        モラル化?!         子                20
モラル化:参考情報




            などなど
               21
演習8.18
• 有向木によって表現される分布が,対応する無向木上の
  等価な分布によって (自明に) 表現されることを示せ.
  無向木で表現される分布が,クリークポテンシャルを適
   に規格化することにより,有向木で表現可能であるこ
  とも示せ.ある与えられた無向木から構築できる有向木
  の数を計算せよ.

⇒ ホワイトボードで説明




                            22
8.4.3 因子グラフ



              23
因子グラフ
• 有向グラフ,無向グラフを因子グラフで表現
 – 局所的な変数の部分集合のみに依存する関数の集合
   の積として表現可能

因子グラフ      p ( x) = ∏ f s ( x s )        (8.59)
                         s



有向グラフ   ⇒ 親にのみ依存という条件付き             性を 用
                   K
          p(x) = ∏ p( xk | pa k )     (8.5)
                  k =1
無向グラフ ⇒ 極大クリーク上のポテンシャル関数の積で表現
                1
          p(x) = ∏ψ C (x C )          (8.39)      24
                Z C
因子グラフの
   p(x) = f a ( x1 , x2 ) f b ( x1 , x2 ) f c ( x2 , x3 ) f d ( x3 )
• この因数分解のグラフ表現
                                                   変数ノード



                                                        因子ノード




      無向グラフ表現では,これらの積は
      ひとつのポテンシャル関数に統合された
  ⇒ 因子グラフではより詳細な情報が表現される                                               25
有向グラフからの変換
(1) ノードに対応する変数ノードを作る
(2) 条件付き分布に対応する因子を付け加える
(3) 適 なリンクを加える




        条件付き分布
        に着目


             f ( x1 , x2 , x3 )                            f a ( x1 ) = p ( x1 )
これはダメ? なぜ?
             = p ( x1 ) p( x2 ) p( x3 | x1 , x2 )          f b ( x2 ) = p ( x 2 )
                                                    f c ( x1 , x2 , x3 ) = p( x3 | x1 , x2 )
                                                                                    26
無向グラフからの変換
(1) 各ノードに対応する変数ノードを作る
(2) 極大クリークxsに対応する因子ノードを加える




                   f ( x1 , x2 , x3 ) = ψ ( x1 , x2 , x3 )    f a ( x1 , x2 , x3 ) f b ( x2 , x3 )
                                                             = ψ ( x1 , x2 , x3 )
 注意点
   f a ( x1 , x2 , x3 ) f b ( x2 , x3 ) ≠ ψ ( x1 , x2 , x3 )ψ ( x2 , x3 )                  27
局所的な            を持つグラフ
• 有向グラフにおいて,適            な因子関数を                              す
  ることにより局所的な             を  可能




          f ( x1 , x2 , x3 ) = p( x1 ) p( x2 | x1 ) p( x3 | x1 , x2 )

                                                                 28
複数の因子グラフによる表現
• 複数の因子グラフが,ひとつの有向グラフ/無向グラフ
  を表現することがある




        p(x) = f ( x1 , x2 , x3 )

                         p(x) = f a ( x1 , x2 ) f b ( x1 , x3 ) f c ( x2 , x3 )
                          何の条件付き                     性も表現しない
                                                                         29
(再掲) 本発表のポイント
(1) 連鎖ノードにおけるメッセージパッシング
(2) 因子グラフとは? 因子グラフの作り方




                          30
発表まとめ
• 連鎖による推 を じて,メッセージによる推
   の 要を解説した
• 有向/無向グラフから因子グラフと因子関数を
  生成する方法を解説した
• 疑問「因子グラフがなんで嬉しいの?」




      続く発表に乞うご期待!
                          31
次回予告
       32
地   ノ   ほ   こ
獄   ー   ん   れ
だ   テ   と   か
    ー   う   ら




…
    シ   の   が
    ョ
    ン




                33
34
おしまい



       35

More Related Content

What's hot

PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性sleepy_yoshi
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11matsuolab
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章YosukeAkasaka
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式Hiroshi Nakagawa
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門Shuyo Nakatani
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム貴之 八木
 
PRML輪読#9
PRML輪読#9PRML輪読#9
PRML輪読#9matsuolab
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 
線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノートKenji Hiranabe
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門shima o
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7matsuolab
 

What's hot (20)

PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
PRML8章
PRML8章PRML8章
PRML8章
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム
 
PRML輪読#9
PRML輪読#9PRML輪読#9
PRML輪読#9
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
最急降下法
最急降下法最急降下法
最急降下法
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
WAICとWBICのご紹介
WAICとWBICのご紹介WAICとWBICのご紹介
WAICとWBICのご紹介
 
線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 

Similar to 8.4 グラフィカルモデルによる推論

パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデルshow you
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論sleepy_yoshi
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filterSatoshi Minakuchi
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半Ohsawa Goodfellow
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタToshihisa Tanaka
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布t2tarumi
 
データ圧縮
データ圧縮データ圧縮
データ圧縮Joe Suzuki
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングMaruyama Tetsutaro
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notationKenta Oono
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布kunihikokaneko1
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 

Similar to 8.4 グラフィカルモデルによる推論 (20)

PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filter
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
Chapter13.2.3
Chapter13.2.3Chapter13.2.3
Chapter13.2.3
 
17th cvsaisentan takmin
17th cvsaisentan takmin17th cvsaisentan takmin
17th cvsaisentan takmin
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタ
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
 
データ圧縮
データ圧縮データ圧縮
データ圧縮
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notation
 
Chapter9 2
Chapter9 2Chapter9 2
Chapter9 2
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 

More from sleepy_yoshi

KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twittersleepy_yoshi
 
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking MeasuresKDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measuressleepy_yoshi
 
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじPRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじPRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじPRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじPRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじsleepy_yoshi
 
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelssleepy_yoshi
 
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendationsleepy_yoshi
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-sleepy_yoshi
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじsleepy_yoshi
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するsleepy_yoshi
 
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじPRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5sleepy_yoshi
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1sleepy_yoshi
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじsleepy_yoshi
 
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to RankSIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Ranksleepy_yoshi
 
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5sleepy_yoshi
 
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...sleepy_yoshi
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5sleepy_yoshi
 

More from sleepy_yoshi (20)

KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
 
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking MeasuresKDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measures
 
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじPRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじ
 
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじPRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじ
 
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじPRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
 
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじPRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
 
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
 
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじPRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to RankSIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Rank
 
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
 
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
 

Recently uploaded

LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptxsn679259
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsWSO2
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 

Recently uploaded (12)

LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 

8.4 グラフィカルモデルによる推論

  • 1. PRML読書会第11回 8.4 グラフ ルモ ルによる推 2010-02-06 SUHARA YOSHIHIKO (id:sleepy_yoshi)
  • 2. 目次 • 8.4 グラフ ルモ ルによる推 – 8.4.1 連鎖における推 – 8.4.2 木 – 8.4.3 因子グラフ ここまで – 8.4.4 積和アルゴリズム – 8.4.5 max-sumアルゴリズム – 8.4.6 一般のグラフにおける 推 – 8.4.7 ループあり 伝播 – 8.4.8 グラフ構造の学習 1
  • 5. グラフ ルモ ルにおける推 • 目的: グラフ ルモ ルにおける推 – いくつかのノードが観測された際に,残ったノード (のうちいくつか) の事後分布を知りたい • アプローチ – グラフ構造を 用して局所的なメッセージの伝播を 用いて を う – cf. は10章で紹介 4
  • 6. ??? イズの の • 2変数x, y上の同時分布を因数分解する (a) p ( x, y ) = p ( x) p ( y | x) (b) yが観測された (c) ??? p ( y ) = ∑ p ( y | x' ) p ( x' ) (8.47) x' p ( y | x) p ( x) p( x | y ) = (8.48) p( y ) p( x, y ) = p( x | y ) p( y ) = p( y | x) p( x) ではダメ? 5
  • 7. 8.4.1 にお 6
  • 8. 無向連鎖のグラフの K状態 変数 1 p(x) = ψ 1, 2 ( x1 , x2 ) 2,3 ( x2 , x3 )Lψ ψ −1, (x −1 ,x ) (8.49) Z K×Kの表 N-1個 ⇒ 同時分布は (N-1) K2 個のパラメータを持つ 習 ※有向グラフと同じ条件付き 性を持つ 7
  • 9. 周辺分布の推 • 連鎖 中のノードの周辺分布を推 したい – どのノードも観測されていない場合 コレ xn 周辺分布 p ( xn ) = ∑L ∑∑L ∑ p(x) x1 xn−1 xn+1 x (8.50) xn以外で周辺化 ⇒ xが取りうる状態の数: KN個 ポイント: 連鎖の さNに対して 指数オーダーO(KN)のメモリ と計算 8
  • 10. STOP! ポテンシャル関数って何なのさ? • (規格化されるので) ψ(xC) > 0 であればなんでもよい – えばボル マン分布: ψ C (x C ) = exp{− E (x C )} – エネルギー関数も本文中に記述なし • ポテンシャル関数の周辺化ってどういうこと? – 簡単のためxc={x1,x2},x1,x2は0,1の2 変数とする ψ C ( x1 ) = ∑ exp{− E ( x1 , x2 )} x2 = exp{− E ( x1 , x2 = 0)} + exp{− E ( x1 , x2 = 1)} の ポテンシャル関数を使って説明しているのは一般性を保つため くなったら適 に 変換すべし 9
  • 11. 周辺分布の よい推 : て グラフ ルモ ルの条件付き 性を 用 xNの周辺化の ∑ψ (x , x )ψ (x , x )Lψ x 1, 2 1 2 2,3 2 3 −1, (x −1 ,x ) = ψ 1, 2 ( x1 , x2 ) 2,3 ( x2 , x3 )L ∑ψ ψ −1, (x −1 ,x ) x xNに依存する部分だけでよい 周辺化のイメージ ψ −1, (x −1 ) ≡ ∑ψ −1, (x −1 ,x ) x ψ (x = 1, x = 1) L ψ (x = K , x = 1)  xNについて  −1, −1 −1, −1  周辺化  M O M  ψ ( x −1 = 1, x = K ) L ψ ( x −1 = K , x = K )   −1, −1,  (ψ −1, (x −1 = 1) L ψ −1, (x −1 = K )) 10
  • 12. 周辺分布の よい推 : 本番 1 p ( x) = ψ 1, 2 ( x1 , x2 )ψ 2,3 ( x2 , x3 )Lψ −1, (x −1 ,x ) Z 代入 p( xn ) = ∑L ∑∑ L ∑ p(x) x1 xn−1 xn+1 x さき どの条件付き 性を 用 1     p ( xn ) = ∑ψ n −1,n ( xn −1 , xn )L ∑ψ 2,3 ( x2 , x3 )∑ψ 1, 2 ( x1 , x2 ) L Z x  n −1 x 2 x   1  µα ( xn )     ∑ψ n ,n +1 (xn , xn+1 )L ∑ψ −1, (x −1 , x ) L  xn+1  x   11 µ β ( xn )
  • 13. 入れ えによる計算 • 演算 による計算 の : ab + ac = a(b + c) 3回 ⇒ 2回 ψ 1, 2 ( x1 , x2 ) をx1について周辺化  ψ 1, 2 ( x1 = 1, x2 = 1) L ψ 1, 2 ( x1 = K , x2 = 1)   ψ 1, 2 ( x2 = 1)       M O M   M  ψ ( x = 1, x = K ) L ψ ( x = K , x = K )  ψ ( x = K )   1, 2 1 2 1, 2 1 2   1, 2 2  K×Kの演算 同じことをN-1回繰り返すので,p(xn)を求めるために必要な 計算 はO(NK2) ポイント: 連鎖の さNに対して 線形オーダーO(NK2)の計算 12
  • 14. 局所的なメッセージ伝播 1 規格化係数 p ( x ) = µ a ( xn ) µ β ( xn ) Z = ∑ µ a ( xn ) µ β ( xn ) Z xn – μα: 前向きに伝わるメッセージ – μβ: 後ろ向きに伝わるメッセージ 前向き 後ろ向き     µ a ( xn ) = ∑ψ n −1,n ( xn −1 , xn ) ∑ L µ β ( xn ) = ∑ψ n,n +1 ( xn , xn +1 ) ∑ L xn−1  xn −2  xn+1  xn+ 2  = ∑ψ n −1,n ( xn −1 , xn ) µα ( xn −1 ) = ∑ψ n ,n +1 ( xn , xn +1 ) µ β ( xn +1 ) xn+1 xn−1 13
  • 15. 連鎖上全てのノードに対しての推 • 伝播中すべてのメッセージを保存 (1) メッセージμαをx1からxNまで前向きに伝播 (2) メッセージμβをxNからx1まで後ろ向きに伝播 µ a ( x2 ) µ a ( xn −1 ) µ a ( xn ) µ a ( xn +1 ) µa ( x ) µ β ( x1 ) µ β ( xn − 2 ) µ β ( xn −1 ) µ β ( xn ) µβ ( x −1 ) ※1 計算 は1つのノードに対する計算 の2倍 ※2 Zは都合のよいノードで計算すればよい 任意のノードの周辺分布を式(8.54)を用いて計算可能 1 p ( xn ) = ∑ µ a ( xn ) µ β ( xn ) (8.54) 14 Z xn
  • 16. 演習8.15: する2点の同時分布 • する2点の同時分布 p(xn-1, xn) xn, xn-1以外を周辺化する 1 p( xn −1 , xn ) = ψ (x , x ) Z n −1,n n −1 n     ∑ψ n − 2,n −1 ( xn − 2 , xn −1 )L ∑ψ 2,3 ( x2 , x3 )∑ψ 1, 2 ( x1 , x2 ) L  xn− 2  x2  x1   µα ( xn−1 )     ∑ψ n ,n +1 ( xn , xn +1 )L ∑ψ (x −1 , x ) L ⇒ (8.54) −1,  xn+1  x   µ β ( xn ) 15
  • 18. 8.4.2 木 17
  • 19. メッセージパッシングの拡張 • ノードの連鎖から成るグラフでは,ノード数に 線形な時間で 推 可能なことを示した • 木 (tree) と呼ばれるクラスでも同様に局所的 なメッセージパッシングによる推 が可能 ⇒ 連鎖についてのメッセージパッシングを一般化 した積和アルゴリズムを導出 積和アルゴリズムについては 8.4.4を乞うご期待! 18
  • 20. 木の種類 • 無向木 – 任意のノード間に 一の が存在 • 有向木 – 根 (root) と呼ばれる親を持たないノードを1つだけ持ち,他の全ての ノードは親を1つだけ持つ • 多重木 – 2つ以上親を持つノードが存在するが,任意の2ノード間の (方向を無 視した) が1つしかない有向グラフ 無向木 有向木 多重木 モラル化で変化なし モラル化でループが発生 19
  • 21. 習: モラル化 • 有向グラフから無向グラフへの変換方法 – 親同士を結婚させる≒できちゃった婚 結婚! 父 父 子 子 モラル化 重婚! ザ・ばっくれ・バーク レー・ボーイズ 父1 父2 父1 父2 by 和 子 モラル化?! 子 20
  • 22. モラル化:参考情報 などなど 21
  • 23. 演習8.18 • 有向木によって表現される分布が,対応する無向木上の 等価な分布によって (自明に) 表現されることを示せ. 無向木で表現される分布が,クリークポテンシャルを適 に規格化することにより,有向木で表現可能であるこ とも示せ.ある与えられた無向木から構築できる有向木 の数を計算せよ. ⇒ ホワイトボードで説明 22
  • 25. 因子グラフ • 有向グラフ,無向グラフを因子グラフで表現 – 局所的な変数の部分集合のみに依存する関数の集合 の積として表現可能 因子グラフ p ( x) = ∏ f s ( x s ) (8.59) s 有向グラフ ⇒ 親にのみ依存という条件付き 性を 用 K p(x) = ∏ p( xk | pa k ) (8.5) k =1 無向グラフ ⇒ 極大クリーク上のポテンシャル関数の積で表現 1 p(x) = ∏ψ C (x C ) (8.39) 24 Z C
  • 26. 因子グラフの p(x) = f a ( x1 , x2 ) f b ( x1 , x2 ) f c ( x2 , x3 ) f d ( x3 ) • この因数分解のグラフ表現 変数ノード 因子ノード 無向グラフ表現では,これらの積は ひとつのポテンシャル関数に統合された ⇒ 因子グラフではより詳細な情報が表現される 25
  • 27. 有向グラフからの変換 (1) ノードに対応する変数ノードを作る (2) 条件付き分布に対応する因子を付け加える (3) 適 なリンクを加える 条件付き分布 に着目 f ( x1 , x2 , x3 ) f a ( x1 ) = p ( x1 ) これはダメ? なぜ? = p ( x1 ) p( x2 ) p( x3 | x1 , x2 ) f b ( x2 ) = p ( x 2 ) f c ( x1 , x2 , x3 ) = p( x3 | x1 , x2 ) 26
  • 28. 無向グラフからの変換 (1) 各ノードに対応する変数ノードを作る (2) 極大クリークxsに対応する因子ノードを加える f ( x1 , x2 , x3 ) = ψ ( x1 , x2 , x3 ) f a ( x1 , x2 , x3 ) f b ( x2 , x3 ) = ψ ( x1 , x2 , x3 ) 注意点 f a ( x1 , x2 , x3 ) f b ( x2 , x3 ) ≠ ψ ( x1 , x2 , x3 )ψ ( x2 , x3 ) 27
  • 29. 局所的な を持つグラフ • 有向グラフにおいて,適 な因子関数を す ることにより局所的な を 可能 f ( x1 , x2 , x3 ) = p( x1 ) p( x2 | x1 ) p( x3 | x1 , x2 ) 28
  • 30. 複数の因子グラフによる表現 • 複数の因子グラフが,ひとつの有向グラフ/無向グラフ を表現することがある p(x) = f ( x1 , x2 , x3 ) p(x) = f a ( x1 , x2 ) f b ( x1 , x3 ) f c ( x2 , x3 ) 何の条件付き 性も表現しない 29
  • 32. 発表まとめ • 連鎖による推 を じて,メッセージによる推 の 要を解説した • 有向/無向グラフから因子グラフと因子関数を 生成する方法を解説した • 疑問「因子グラフがなんで嬉しいの?」 続く発表に乞うご期待! 31
  • 34. ノ ほ こ 獄 ー ん れ だ テ と か ー う ら … シ の が ョ ン 33
  • 35. 34