SlideShare a Scribd company logo
1 of 11
Download to read offline
Sampling-Based Approaches to Calculating Marginal Densities
                            Alan E. Gelfand, Afrian F. M. Smith
            Journal of the American Statistical Association, 85;410:398-409, 1990.




確率論的な substitution、Gibbs sampler、importance-resampling algorithm は、周辺確率分
布の数値的推定の計算アプローチに基づく 3 つの代替サンプリング(または Monte Carlo)と
してみなすことができる。3 つのアプローチは、応用上しばしばさまざまな同時確率分布の
構造に関連して比較される。とくに、構造モデルのひとつである Bayesian の事後分布を計
算するアプローチの妥当性について議論する。




1. Introduction
  確率変数 U1、U2、…Uk の集積に関して、次の(a)もしくは(b)の状況を仮定する。
   (a) 条件分布 Ui|Uj(i=1,・・・, k)が得られる。
   (b) 同時密度関数が既知でおそらく効率的な基準化定数であり、少なくてもひとつの
   (c) Ui|Uj が得られる。
                  “available”は、適切に条件付けられた変数の特定の値を与えた
       もとで、標本 Ui が簡単に効率的に発生するということを意味する。


<この論文の論点>
確率論的・数値的分析的モデルなしで、非解析的に得られるいくつかの周辺密度、もしく
は、得られる条件付き分布からシミュレーションされた標本による簡単な Ui のすべての数
値的推測を得るために、(a)または(b)によって与えられる構造上の情報を発展させる。
(方法に基づいたサンプリングの魅力は概念的に容易で、数値的な解析の専門家がいなく
ても、入手・計算が可能な情報を持っている利用者にとっては実施が簡易である。利用者
に必要なことは、関連する条件付き分布の確率構造と、適切な確率変数を効率的に発生さ
せるための手技に関する知識である。)


<論文内容の構成>
2 節…文献に基づいて、サンプリングアルゴリズムによって周辺密度を計算するための 3 つ
の代替アプローチを議論する。
  ① Taner & Wong:data-augmentation algorithm (→2.1)
  ② Geman & Geman:Gibbs sampler algorithm           (→2.3)
  ③ Rubin:importance-sampling algorithm             (→2.1、2.2)


・ Gibbs Sampler は広く取り上げられているが、慣習的な問題への一般化可能性(事後分布



                                              1
への適応など)は見過ごされている。




・ Gibbs sampler と substitution、data-augmentation algorithm の密接な関係を述べる。この論
   文では後者(data-augmentation algorithm)を一般化し、(a)に加えて異なった条件分布が
   得られることを仮定すると、data-augmentation algorithm は少なくても Gibbs sampler と同
   様 に 効 率 的 で あ る 。 ま た (a) に 加 え て 明 確 な 条 件 付 き 分 布 が 得 ら れ た も と で は 、
   data-augmentation algorithm は、より本質的に効率的であることを示す。
・ Gibbs sampler と data-augmentation algorithm の関係の結論は、German & German によって
   確立された収束結果は、一般化された substitution algorithm に応用できる、ということ
   である。Tanner & Wong によって確立されたより強い収束結果は、特定の周辺分布の集
   合が得られることが必要である。
・ substitution と Gibbs sampler algorithm の両方とも Monte Carlo 積分の反復で、(a)によって
   与えられた構造上の情報が得られるときに適用される。構造上の情報が(b)によって記述
   される場合、Rubin による importance-sampling algorithm は、周辺密度を計算するための
   Monte Carlo の非反復積分アプローチを与える。


3 節:容易に導入される解を要求する 3 つのアプローチのひとつ以上が適用される場面でし
ばしば発生する様々なモデル構造を提示する。とくに、不完全データの問題における
Bayesianの事後分布、conjugate hierarchical model、normal data modelの計算について考える。


4 節:2 標本におけるいくつかの結果を簡単に要約する。


5 節:discussion




2. Sampling Approaches


・後でする仮定:実数であり標本空間で正である同時密度関数を持つ確率変数.完全条件
    付分布によって同時分布を特定できる.
・全体を通しての仮定:全ての周辺分布と条件付分布をルベーグ測度によって定義する.
                                       「分
    布」と「密度」は表現上交換可能.




                                    2
・密度は同時分布,条件付分布,周辺分布によって階層的に表現する.

・ [ X ] は分布を表し,X は実現値(サンプリング値)を表す.

・分布を掛ける際は「*」を用いる.簡便のため積分は次のように表現する.
・この例の場合は Z と W について積分している.
・h で表現することもある(この場合,Z で条件付けられたある分布に対して W で周辺を
    とることを表している)
              .
補足:X や Y は実際に適応する際には失測値や推定したいパラメータを表す.




2.1 Substitution or Data-Augmentation Algorithm


                          .
・代替法はある積分の解を求める標準的な方法(Rall)
・統計学における有用性は Tanner and Wong によって示された(彼らはデータ拡大法と呼
    んだ)
      .
・以下に理論の説明.


・こうすることで X を段階的に求めることができる.
  特徴:TW1. 真の周辺分布は unique に求まる
        TW2. 初期値にかかわらず(3)式で表現される分布は真の分布に収束する
        TW3. 速さ(?)


・変数が k 個の時も同様.
・例:3 変数の場合.
      (5),(6)式を(4)式に代入すると,2 変数の場合と同じように X を用いて明示的に表現
    できる.

           [ X ] ∫Y ,Z  X , Z Y  ∗ [Y ]
             =                  

               ∫
            =
                     Y ,Z    X , Z Y  ∗ ∫Z ′, X ′ Y , X ′ Z ′ ∗ [ Z ′]
                                                             
               ∫
            =
                     Y ,Z    X , Z Y  ∗ ∫Z ′, X ′ Y , X ′ Z ′ ∗ ∫X ′′,Y ′  Z ′, Y ′ X ′′ ∗ [ X ′′]
                                                                                        

     = ∫
         
                     X ′′   {∫X ′,Y ,Y ′, Z , Z ′                                           }
                                                     X , Z Y  ∗ Y , X ′ Z ′ ∗  Z ′, Y ′ X ′′ ∗ [ X ′′]
                                                                                                 
     = ∫ g ( X , X ′′ ) ∗ [ X ′′]
         
                     X ′′




                                                                 3
・ゆるい仮定をおけば U r , r ≠ s U s  ( s = 1, 2,..., k ) で表せる条件付分布によって同時分布を
                           
    unique に決定できる(つまり代替サンプリングを正当化できる)
                                    .




2.2 Substitution Sampling


代替サンプリング
・X と Y の条件付分布がわかっている場合に適応可能(1 節の a の状況)
                                      .
・代替サンプリングのサンプリング手順は以下のようになっている.




[ X ]0 ~ X 1(0)      X Y1(1)  ~ X 1(1)  
                                                     …………    ~ X 1( i −1)       X Y1(i )  ~ X 1(i )  
                                                                                           
                                                              …………

          Y X 1(0)  ~ Y1(1)        Y X 1(1)  ~ Y1(2)   …………       Y X 1(i −1)  ~ Y1(i )
                                                                              



     1 cycle        i 回 iteration する(上の添え字 i に対応)

                                      このペアを m 個作る(m 回 replicate する,下の添え字 j に対応)


・それぞれのペア同士(replicate)は独立であるが,あるペア内のサンプル同士(iteration)
    は独立ではない.
・m ペアを replicate し,それらの条件付分布の平均をとることで分布の推定値を得る
    (Monte Carlo 法)
                  .




                                                   4
データ拡大法(Tannea and Wong)

                       1/m で Y を発生させる分布を選ぶ

                       (Tanner and Wong は混合分布から Y を発生させている)



          X 1(0)       Y X 1(0)    Y X (0)  ~ Y1(1)        X Y1(1)  ~ X 1(1)     …
                                       j                           

           (0)
          X2           Y X 2 
                            (0)
                                     Y X (0)  ~ Y2(1)        X Y2(1)  ~ X 2
                                                                              (1)
                                                                                       …
                                       j                           

[ X ]0             :                                      :                            :

                   :                                      :                            :
           (0)
          Xm           Y X m 
                            (0)
                                     Y X (0)  ~ Ym
                                                   (1)
                                                               X Ym  ~ X m
                                                                   (1)     (1)
                                                                                       …
                                       j                          



                       1 cycle       i 回 iteration する(上の添え字が i になるまで)

                                                                                m 回 replicate




・m は任意に決めることができるので計算を節約できる可能性がある(補足:初めは小さ
     い m にしておいて,サンプリングが安定してきたら m を大きくする)
                                       .
・代替法とデータ拡大法は iteration と replicate の順番が逆になっているが,本質的には
     同じサンプリング方法.
補足:・Rubin はデータ拡大法を multiple imputation と呼んだ.この例の場合に MI を対
          応させると,X が失測値であり Y がパラメータである.Y の分布を推定するステ
          ップを“事後ステップ”と呼び,その他の X や Y をサンプルするステップを
          “imputation ステップ”と呼ぶ.
         ・Wei and Tanner はデータ拡大法を,EM アルゴリズムの E ステップにおいて Q
          function を求める際に適用することを提案した(MCEM).


以下,両方の方法に共通な説明.

・  X  が [ X ] に収束する簡単な説明.
    ˆ
    i
・3 変数以上の場合も同様.
・完全同時分布は必要ないが,条件付分布を求める際に完全条件付分布や縮小条件付分布
     が必要.



                                                5
例:3 変数の場合,X に関する式を書き下すと次のようになる.

     [ X ] = ∫  X , Z Y  ∗ Y , X ′ Z ′ ∗  Z ′, Y ′ X ′′ ∗ [ X ′′]
                                                       
       ] = ∫  X Z , Y  ∗  Z Y  ∗ Y X ′, Z ′ ∗  X ′ Z ′ ∗  Z ′ Y ′, X ′′ ∗ Y ′ X ′′ ∗ [ X ′′]
      [X                                                                          
   上式:400 ページの真中あたりの説明で表現される式.
   下式:(8)式の上の方の説明で表現される式(実際の計算はこの式に基づく)
                                      .
                            →つまり 1cycle で 6 サンプル必要となることがわかる.


・変数が k 個あるときは 1 回の cycle で k(k-1)個のサンプルが必要(3 変数の場合は 6 サン
   プル)
     .
・iteration を i 回行い,replicate を m 回行うためには mik(k-1)個のサンプルが必要.
・分布の推定を行う際には,2 変数の場合と同じように条件付分布の平均をとる.




2.3 Gibbs Sampling


・変数が 3 個の場合,代替法では 6 個の条件付分布が必要であった.
・しかし完全条件付分布さえあれば,unique に同時分布や周辺分布を決定できるのでこれ
   を利用してサンプリングを行うことができる(Geman and Geman) →Gibbs sampler
                                       .
   と呼ぶ
・Hasting はこれより以前にこれと同等のことを述べていた.


・ギブスサンプリングはもともと画像修復やニューラルネットワーク,専門システムなど
   の複雑な確率モデルのために考案された方法.
・これらの分野では同時分布を求めることが困難である.
・しかし通常は,個々の完全条件付分布は変数のある subset にしか依存しないと仮定する
   ことが多い((11)式の形)
                .
・この仮定のとき,どのような条件付分布であれば同時分布を unique に決定できるか?
・Geman and Geman がこの疑問に対して答えている.
・今回の論文の例は全て満たしている.
・我々の分野では k はそんなに多くないし,同時分布を特定する過程で完全条件付分布を
   計算することはできるだろう.




                                                     6
ギブスサンプリング

初期値を任意に

 決定する

 U1(0)            U1(1) ~ U|U 2 ,..., U k(0) 
                           1
                               (0)
                                                                          U1(i )

  (0)
 U2               U 2 ~ U|U1(1) , U 3(0) ,..., U k(0) 
                    (1)
                         2                                               U 2i )
                                                                             (

                                                                       …              m 回 replicate し,
 :                                :                                        :          (9)式の形で分布を
 U k(0)           U k(1) ~ U|U1(1) ,..., U k(1)1 
                            k                −                            U k(i )   推定することも
                                                                                      できる.
                                  ……………


                 1 i                          a.s.
            lim
            i →∞ i
                   ∑ T (U1(l ) ,...,U k(l ) ) → E [T (U1 ,...,U k )]
                   l =1
           i 回 iteration したものを平均すると,期待値に概収束する.

           (エルゴード性)




    特徴:GG1. 変数ベクトルは同時分布に分布収束し,各変数は各変数の分布に分布収束
                  する(変数が現れる順序が natural order でなくても,それぞれの変数が無限
                  回起これば良い. Infinitely often,io)
                                              .
            GG2. natural order であれば変数ベクトルは真の同時分布に収束する(natural
                  order でない場合は rate が変わるだけ)
                                          .
            GG3.       i 回 iteration したものを平均すると期待値に概収束する.エルゴード性)
                                                        (


 ・k 変数,i iteration,m replicate であれば mik 個のサンプルが必要.
 補足:Meng and Schilling は EM アルゴリズムにおいてギブスサンプリングを適用するこ
          とを提案した.




 2.4 Relationship Between Gibbs Sampling and Substitution Sampling


 ・2 変数の場合:ギブスサンプリングと代替サンプリングは等しい.
 ・k 変数の場合:ギブスサンプリングは k 個の完全条件付分布が必要(同時分布を特定する
                    ための最小の数)
                           .
                       代替サンプリングは k(k-1)個の条件付分布が必要.




                                                           7
・k が大きいとギブスサンプリングの収束は遅いことが知られている.
・サンプルの個数で比較すると,代替サンプリングで i 回の iteration ができるとすればギ
   ブスサンプリングでは i(k-1)回の iteration ができる.
・しかし代替サンプリングでは常に正確な分布からサンプルを得ているので収束は速い.
・完全条件付分布しか得られなかった場合,代替サンプリングはどのように適用できるか.
・結論から言うと,この場合は io visiting の順序が異なっている以外はギブスサンプリン
   グと同等である.
・具体的には sub-loop をまわすことで縮小条件付分布を推定することで,代替サンプリン
   グを適用できる(3 変数の場合(13)式を利用して推定できる)
                                 .
       →k 変数の場合にも拡張できる.


・今までは,条件付分布が全てわかっていないと代替サンプリングは使われなかった.
・しかし sub-loop を(10)式に組み込むことで代替サンプリングを適用できる.
・完全条件付分布のみは, cycle で 1 度は使われているので iteration を行うと io となり,
           各
   そのためこの分布だけは真の分布とみなせる(actually sampled from)
                                             .
・このような代替サンプリングは io visiting order 以外はギブスサンプリングと等しく,そ
   のため GG1~GG3 は満たされる(TW が満たされるのは全ての条件付分布が求まって
            .
   いる場合のみである)
・しかしこのような複雑な順序でサンプリングする利点はなく,通常のギブスサンプリン
   グで充分である.


・k 変数の場合でも以上の議論と同様の議論ができる.
・k 個の完全条件付分布しかわからない場合は,ギブスサンプリングと代替サンプリングは
   等しい.
・縮小条件付分布がいくつか分かっている場合は代替サンプリングの方が速く収束する.
・このようにいくつかだけ分かっている場合に代替サンプリングを適用する際は,縮小条
   件付分布が分かっていればそこからサンプリングし,そうでなければ完全条件付分布
   からサンプリングすると良いかもしれない.


例:3 変数の場合にギブスサンプリングを代替法の順序で行うと,通常の順序で行った場合
   の 2 倍のサンプルが必要となる.縮小条件付分布がわかっていれば対応する部分はそ
   れを用いてサンプリングする.


・3 節では縮小条件付分布がわかっている場合と分かっていない場合を考える.
・4 節ではシミュレーションによって,縮小条件付分布がわかっている場合の収束の速さは
   重要ではないことを示す.



                            8
3. Examples


・主にベイズ流の推測によって周辺事後分布を計算する際にこれまで紹介した手法が使わ
    れる.
・近年そのような計算をする際に近似計算を行う方法が発展したが,それらは洗練された
    専門家やソフトウェアが必要となる.
・しかしサンプリング法ではコンピュータ計算が非効率になる代わりに,そのようなもの
    は必要ではなくなる.
・様々な分野に適応できるように,これから 6 つの例を示す.




3.1 A Class of Multinomial Models


・連鎖解析の例.Tanner and Wong の方法を拡張した.
・測定値は個人の細胞ではなく,凝集した細胞なので多項分布からのサンプリングを考え
    る.
・Tanner のモデルはパラメータが 1 つであったが,今回は k パラメータの拡張への見通し
    をつけるために 2 つのパラメータで考える.
・Y に多項分布(5 項分布)を設定する(a,b,c は定数でθとηがパラメータ.a,b,c の関係
    式は恒等式をパラメータについて解くと得られる)
                          .
・パラメータについて 3 つの条件式が得られるので,パラメータの事前分布に 3 変数のデ
    ィクリレ分布を想定する.
・計算によって周辺分布を求めるのはちょっと複雑になってしまう.


・パラメータはθ,η,Z の 3 つ.
・ギブスサンプリングは 3 つの完全条件付分布が必要であり,これは入手可能.
・今回の場合は縮小条件付分布も入手可能なので,収束の速さを調べることができる.
・importance sampling では?




3.2 Hierarchical Methods Under Conjugacy


・ベイズ流の k 層の階層モデルを考える(?).
・通常θk 以外は漠然事前分布である.



                                       9
・(17)式は事前分布を更新したもの(?).
・縮小条件付分布が無ければ,周辺事後分布を推定するのにギブスサンプリングを行う.
・分かりやすくするため k=3 の場合を考えると,条件付分布のなかに計算可能なものとそ
    うでないものがあることがわかる.


・交換可能な(?)ポアソンモデルを考える.
・ポアソン分布の事前分布にガンマ分布を,さらにその事前分布に逆ガンマ分布を想定す
    る.
・するとパラメータに関する完全条件付分布を計算できるが(18,19)
                                 ,縮小条件付分布は
    計算できない.
・ギブスサンプリングでは,λをガンマ分布から,βを逆ガンマ分布から得ることができ,
    さらにその分布を推定することもできる.
・Rubin は?




3.3 Multivariate Normal Sampling


・平均と分散共分散行列に事前分布を想定した多変量正規分布からの標本では,完全条件
    付分布と,縮小条件付分布のうちいくつかしか計算できないことが多い.
・中略
・縮小条件付分布がわかるので,代替サンプリングを用いることで収束が速くなる.
・Rubin の方法は単純になる.




4. Numerical Illustrations


4.1 A Multinomial Model


・多項分布の例に 3 つの方法を適用した.
・事前分布がディクリレ分布である多項分布から Y=(14,1,1,1,5)が得られたとする.
・ここで興味のある事はパラメータの周辺事後分布である.


・ギブスサンプリングと代替サンプリングを比較する.
・まず Smith の方法によって正確な分布のパーセントタイル点を計算した.
・θとηは一様分布から発生し,足して 1 を超えないようにする.
・m=10 とし,各サンプリングで発生する変数の数が同じになるようにする.



                                   10
・各サンプリング法で推定した分布の,真のパーセンタイルまでの累積確率と標準誤差を
  計算し,どちらのサンプリング方法が真の値に近いかを%で表す.
・表 1 に最初の 4cycle の結果を示す.


・特にηに関して,代替サンプリングの方が速く真の分布に近づいていることがわかる.
・3,4 週目では両方同じくらい良いパフォーマンスを示している.
・m=10 でありパラメータは無情報であるのにかかわらず,4 週目で既に推定された周辺分
  布の累積確率は真の分布のものとほとんど等しい.
・4.2 の結果も総合すると,Tanner and Wong が報告しているよりもずっと少ない変数の
  数で充分に収束するであろう.


・Rubin の方法の結果を表 2 に示す.
・m=40,200,2500 回繰り返しにかかわらず,ギブスや代替法に比べてかなり劣っている.
・一般的に,Rubin の方法は初期分布の選び方に強く依存し,(?)




                           11

More Related Content

What's hot

第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)Shin Asakawa
 
ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率Masaki Asano
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargeJunpei Matsuda
 
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)Akira Asano
 
Crfと素性テンプレート
Crfと素性テンプレートCrfと素性テンプレート
Crfと素性テンプレートKei Uchiumi
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 
ベクトルで理解する相関係数
ベクトルで理解する相関係数ベクトルで理解する相関係数
ベクトルで理解する相関係数Satoshi MATSUURA
 
Aishima140714
Aishima140714Aishima140714
Aishima140714nwpmq516
 
2016年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2016. 10. 13)
2016年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2016. 10. 13)2016年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2016. 10. 13)
2016年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2016. 10. 13)Akira Asano
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 

What's hot (20)

PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)第4回MachineLearningのための数学塾資料(浅川)
第4回MachineLearningのための数学塾資料(浅川)
 
ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
Prml07
Prml07Prml07
Prml07
 
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in chargePRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in charge
 
prml4.1.3-4.1.4
prml4.1.3-4.1.4prml4.1.3-4.1.4
prml4.1.3-4.1.4
 
Prml 4.1.1
Prml 4.1.1Prml 4.1.1
Prml 4.1.1
 
文書比較 (diff)
文書比較 (diff)文書比較 (diff)
文書比較 (diff)
 
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
 
Crfと素性テンプレート
Crfと素性テンプレートCrfと素性テンプレート
Crfと素性テンプレート
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7
 
ベクトルで理解する相関係数
ベクトルで理解する相関係数ベクトルで理解する相関係数
ベクトルで理解する相関係数
 
Aishima140714
Aishima140714Aishima140714
Aishima140714
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
2016年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2016. 10. 13)
2016年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2016. 10. 13)2016年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2016. 10. 13)
2016年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2016. 10. 13)
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 

Viewers also liked

日本の風俗の課題を『艦これ』に置き換えてみた
日本の風俗の課題を『艦これ』に置き換えてみた日本の風俗の課題を『艦これ』に置き換えてみた
日本の風俗の課題を『艦これ』に置き換えてみたGrowAsPeople
 
Project 311 - 地域と時間軸による情報フィルタリング -
Project 311 - 地域と時間軸による情報フィルタリング - Project 311 - 地域と時間軸による情報フィルタリング -
Project 311 - 地域と時間軸による情報フィルタリング - Preferred Networks
 
著作権、権利って難しい 技術者もこれだけは知っておきたい知識
著作権、権利って難しい 技術者もこれだけは知っておきたい知識著作権、権利って難しい 技術者もこれだけは知っておきたい知識
著作権、権利って難しい 技術者もこれだけは知っておきたい知識Preferred Networks
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 3
数学的基礎から学ぶ Deep Learning (with Python) Vol. 3数学的基礎から学ぶ Deep Learning (with Python) Vol. 3
数学的基礎から学ぶ Deep Learning (with Python) Vol. 3Project Samurai
 
大学生が撮った新発田ー敬和学園大学学生制作映像上映会
大学生が撮った新発田ー敬和学園大学学生制作映像上映会大学生が撮った新発田ー敬和学園大学学生制作映像上映会
大学生が撮った新発田ー敬和学園大学学生制作映像上映会Shinya ICHINOHE
 
Instagram API を使ってウェブアプリを作ろう!
Instagram API を使ってウェブアプリを作ろう!Instagram API を使ってウェブアプリを作ろう!
Instagram API を使ってウェブアプリを作ろう!Project Samurai
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 8
数学的基礎から学ぶ Deep Learning (with Python) Vol. 8数学的基礎から学ぶ Deep Learning (with Python) Vol. 8
数学的基礎から学ぶ Deep Learning (with Python) Vol. 8Project Samurai
 
加賀さんと僕4 〜艦これウィジェットの後悔と教訓〜
加賀さんと僕4 〜艦これウィジェットの後悔と教訓〜加賀さんと僕4 〜艦これウィジェットの後悔と教訓〜
加賀さんと僕4 〜艦これウィジェットの後悔と教訓〜Hiromu Ochiai
 
研究・企業・生き方について 情報科学若手の会2011
研究・企業・生き方について 情報科学若手の会2011研究・企業・生き方について 情報科学若手の会2011
研究・企業・生き方について 情報科学若手の会2011Preferred Networks
 
PFI seminar 2010/05/27 統計的機械翻訳
PFI seminar 2010/05/27 統計的機械翻訳PFI seminar 2010/05/27 統計的機械翻訳
PFI seminar 2010/05/27 統計的機械翻訳Preferred Networks
 
第35回 強化学習勉強会・論文紹介 [Lantao Yu : 2016]
第35回 強化学習勉強会・論文紹介 [Lantao Yu : 2016]第35回 強化学習勉強会・論文紹介 [Lantao Yu : 2016]
第35回 強化学習勉強会・論文紹介 [Lantao Yu : 2016]Takayuki Sekine
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 2
数学的基礎から学ぶ Deep Learning (with Python) Vol. 2数学的基礎から学ぶ Deep Learning (with Python) Vol. 2
数学的基礎から学ぶ Deep Learning (with Python) Vol. 2Project Samurai
 
イノベーションことはじめ
イノベーションことはじめイノベーションことはじめ
イノベーションことはじめPreferred Networks
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 1
数学的基礎から学ぶ Deep Learning (with Python) Vol. 1数学的基礎から学ぶ Deep Learning (with Python) Vol. 1
数学的基礎から学ぶ Deep Learning (with Python) Vol. 1Project Samurai
 
2009年4月8日セミナー 4.レコメンデーション Q&A
2009年4月8日セミナー 4.レコメンデーション Q&A2009年4月8日セミナー 4.レコメンデーション Q&A
2009年4月8日セミナー 4.レコメンデーション Q&APreferred Networks
 
Caffeのデータレイヤで夢が広がる話
Caffeのデータレイヤで夢が広がる話Caffeのデータレイヤで夢が広がる話
Caffeのデータレイヤで夢が広がる話Masaki Saito
 

Viewers also liked (20)

日本の風俗の課題を『艦これ』に置き換えてみた
日本の風俗の課題を『艦これ』に置き換えてみた日本の風俗の課題を『艦これ』に置き換えてみた
日本の風俗の課題を『艦これ』に置き換えてみた
 
mlabforum2012_okanohara
mlabforum2012_okanoharamlabforum2012_okanohara
mlabforum2012_okanohara
 
Project 311 - 地域と時間軸による情報フィルタリング -
Project 311 - 地域と時間軸による情報フィルタリング - Project 311 - 地域と時間軸による情報フィルタリング -
Project 311 - 地域と時間軸による情報フィルタリング -
 
著作権、権利って難しい 技術者もこれだけは知っておきたい知識
著作権、権利って難しい 技術者もこれだけは知っておきたい知識著作権、権利って難しい 技術者もこれだけは知っておきたい知識
著作権、権利って難しい 技術者もこれだけは知っておきたい知識
 
comp_pfiseminar
comp_pfiseminarcomp_pfiseminar
comp_pfiseminar
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 3
数学的基礎から学ぶ Deep Learning (with Python) Vol. 3数学的基礎から学ぶ Deep Learning (with Python) Vol. 3
数学的基礎から学ぶ Deep Learning (with Python) Vol. 3
 
大学生が撮った新発田ー敬和学園大学学生制作映像上映会
大学生が撮った新発田ー敬和学園大学学生制作映像上映会大学生が撮った新発田ー敬和学園大学学生制作映像上映会
大学生が撮った新発田ー敬和学園大学学生制作映像上映会
 
Instagram API を使ってウェブアプリを作ろう!
Instagram API を使ってウェブアプリを作ろう!Instagram API を使ってウェブアプリを作ろう!
Instagram API を使ってウェブアプリを作ろう!
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 8
数学的基礎から学ぶ Deep Learning (with Python) Vol. 8数学的基礎から学ぶ Deep Learning (with Python) Vol. 8
数学的基礎から学ぶ Deep Learning (with Python) Vol. 8
 
tut_pfi_2012
tut_pfi_2012tut_pfi_2012
tut_pfi_2012
 
加賀さんと僕4 〜艦これウィジェットの後悔と教訓〜
加賀さんと僕4 〜艦これウィジェットの後悔と教訓〜加賀さんと僕4 〜艦これウィジェットの後悔と教訓〜
加賀さんと僕4 〜艦これウィジェットの後悔と教訓〜
 
研究・企業・生き方について 情報科学若手の会2011
研究・企業・生き方について 情報科学若手の会2011研究・企業・生き方について 情報科学若手の会2011
研究・企業・生き方について 情報科学若手の会2011
 
PFI Christmas seminar 2009
PFI Christmas seminar 2009PFI Christmas seminar 2009
PFI Christmas seminar 2009
 
PFI seminar 2010/05/27 統計的機械翻訳
PFI seminar 2010/05/27 統計的機械翻訳PFI seminar 2010/05/27 統計的機械翻訳
PFI seminar 2010/05/27 統計的機械翻訳
 
第35回 強化学習勉強会・論文紹介 [Lantao Yu : 2016]
第35回 強化学習勉強会・論文紹介 [Lantao Yu : 2016]第35回 強化学習勉強会・論文紹介 [Lantao Yu : 2016]
第35回 強化学習勉強会・論文紹介 [Lantao Yu : 2016]
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 2
数学的基礎から学ぶ Deep Learning (with Python) Vol. 2数学的基礎から学ぶ Deep Learning (with Python) Vol. 2
数学的基礎から学ぶ Deep Learning (with Python) Vol. 2
 
イノベーションことはじめ
イノベーションことはじめイノベーションことはじめ
イノベーションことはじめ
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 1
数学的基礎から学ぶ Deep Learning (with Python) Vol. 1数学的基礎から学ぶ Deep Learning (with Python) Vol. 1
数学的基礎から学ぶ Deep Learning (with Python) Vol. 1
 
2009年4月8日セミナー 4.レコメンデーション Q&A
2009年4月8日セミナー 4.レコメンデーション Q&A2009年4月8日セミナー 4.レコメンデーション Q&A
2009年4月8日セミナー 4.レコメンデーション Q&A
 
Caffeのデータレイヤで夢が広がる話
Caffeのデータレイヤで夢が広がる話Caffeのデータレイヤで夢が広がる話
Caffeのデータレイヤで夢が広がる話
 

Similar to 生物統計特論3資料 2006 ギブス MCMC isseing333

[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介Deep Learning JP
 
introductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysisintroductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysisTatsuki SHIMIZU
 
経験過程
経験過程経験過程
経験過程hoxo_m
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門Tatsuki SHIMIZU
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Wataru Kishimoto
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)Akira Asano
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布kunihikokaneko1
 
数学教材(中間発表)
数学教材(中間発表)数学教材(中間発表)
数学教材(中間発表)Mizuguchi1205
 
内部拘束を持つ3 次元運動の最適計算法と幾何学的モデル選択への応用ViEW2012論文
内部拘束を持つ3 次元運動の最適計算法と幾何学的モデル選択への応用ViEW2012論文内部拘束を持つ3 次元運動の最適計算法と幾何学的モデル選択への応用ViEW2012論文
内部拘束を持つ3 次元運動の最適計算法と幾何学的モデル選択への応用ViEW2012論文doboncho
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデルshow you
 
2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINAL2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINALTomoshige Nakamura
 
ディジタル信号処理の課題解説 その3
ディジタル信号処理の課題解説 その3ディジタル信号処理の課題解説 その3
ディジタル信号処理の課題解説 その3noname409
 
生物統計特論6資料 2006 abc法(bootstrap) isseing333
生物統計特論6資料 2006 abc法(bootstrap) isseing333生物統計特論6資料 2006 abc法(bootstrap) isseing333
生物統計特論6資料 2006 abc法(bootstrap) isseing333Issei Kurahashi
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門Miyoshi Yuya
 
ものまね鳥を愛でる 結合子論理と計算
ものまね鳥を愛でる 結合子論理と計算ものまね鳥を愛でる 結合子論理と計算
ものまね鳥を愛でる 結合子論理と計算Hiromi Ishii
 
Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Nagi Teramo
 

Similar to 生物統計特論3資料 2006 ギブス MCMC isseing333 (20)

[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
introductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysisintroductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysis
 
PRML セミナー
PRML セミナーPRML セミナー
PRML セミナー
 
Ppt tadano g
Ppt tadano gPpt tadano g
Ppt tadano g
 
2013 03 25
2013 03 252013 03 25
2013 03 25
 
経験過程
経験過程経験過程
経験過程
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布
 
数学教材(中間発表)
数学教材(中間発表)数学教材(中間発表)
数学教材(中間発表)
 
内部拘束を持つ3 次元運動の最適計算法と幾何学的モデル選択への応用ViEW2012論文
内部拘束を持つ3 次元運動の最適計算法と幾何学的モデル選択への応用ViEW2012論文内部拘束を持つ3 次元運動の最適計算法と幾何学的モデル選択への応用ViEW2012論文
内部拘束を持つ3 次元運動の最適計算法と幾何学的モデル選択への応用ViEW2012論文
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 
2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINAL2014年5月14日_水曜セミナー発表内容_FINAL
2014年5月14日_水曜セミナー発表内容_FINAL
 
ディジタル信号処理の課題解説 その3
ディジタル信号処理の課題解説 その3ディジタル信号処理の課題解説 その3
ディジタル信号処理の課題解説 その3
 
生物統計特論6資料 2006 abc法(bootstrap) isseing333
生物統計特論6資料 2006 abc法(bootstrap) isseing333生物統計特論6資料 2006 abc法(bootstrap) isseing333
生物統計特論6資料 2006 abc法(bootstrap) isseing333
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
ものまね鳥を愛でる 結合子論理と計算
ものまね鳥を愛でる 結合子論理と計算ものまね鳥を愛でる 結合子論理と計算
ものまね鳥を愛でる 結合子論理と計算
 
Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法
 

More from Issei Kurahashi

おしゃスタ@リクルート
おしゃスタ@リクルートおしゃスタ@リクルート
おしゃスタ@リクルートIssei Kurahashi
 
【スクー】業務改善のためのデータサイエンス
【スクー】業務改善のためのデータサイエンス【スクー】業務改善のためのデータサイエンス
【スクー】業務改善のためのデータサイエンスIssei Kurahashi
 
データサイエンティストになるために
データサイエンティストになるためにデータサイエンティストになるために
データサイエンティストになるためにIssei Kurahashi
 
Tokyo webmining統計学部 第2回
Tokyo webmining統計学部 第2回Tokyo webmining統計学部 第2回
Tokyo webmining統計学部 第2回Issei Kurahashi
 
おしゃスタVI 倉橋
おしゃスタVI 倉橋おしゃスタVI 倉橋
おしゃスタVI 倉橋Issei Kurahashi
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回Issei Kurahashi
 
コホート研究 isseing333
コホート研究 isseing333コホート研究 isseing333
コホート研究 isseing333Issei Kurahashi
 
一般化線形混合モデル isseing333
一般化線形混合モデル isseing333一般化線形混合モデル isseing333
一般化線形混合モデル isseing333Issei Kurahashi
 
遺伝疫学研究デザイン isseing333
遺伝疫学研究デザイン isseing333遺伝疫学研究デザイン isseing333
遺伝疫学研究デザイン isseing333Issei Kurahashi
 
Analysis of clinical trials using sas 勉強用 isseing333
Analysis of clinical trials using sas 勉強用 isseing333Analysis of clinical trials using sas 勉強用 isseing333
Analysis of clinical trials using sas 勉強用 isseing333Issei Kurahashi
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333Issei Kurahashi
 

More from Issei Kurahashi (17)

おしゃスタ@リクルート
おしゃスタ@リクルートおしゃスタ@リクルート
おしゃスタ@リクルート
 
【スクー】業務改善のためのデータサイエンス
【スクー】業務改善のためのデータサイエンス【スクー】業務改善のためのデータサイエンス
【スクー】業務改善のためのデータサイエンス
 
データサイエンティストになるために
データサイエンティストになるためにデータサイエンティストになるために
データサイエンティストになるために
 
Tokyo webmining統計学部 第2回
Tokyo webmining統計学部 第2回Tokyo webmining統計学部 第2回
Tokyo webmining統計学部 第2回
 
おしゃスタVI 倉橋
おしゃスタVI 倉橋おしゃスタVI 倉橋
おしゃスタVI 倉橋
 
おしゃスタat銀座
おしゃスタat銀座おしゃスタat銀座
おしゃスタat銀座
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
 
iAnalysis NY視察
iAnalysis NY視察 iAnalysis NY視察
iAnalysis NY視察
 
おしゃスタV
おしゃスタVおしゃスタV
おしゃスタV
 
平方和の分解
平方和の分解平方和の分解
平方和の分解
 
コホート研究 isseing333
コホート研究 isseing333コホート研究 isseing333
コホート研究 isseing333
 
一般化線形混合モデル isseing333
一般化線形混合モデル isseing333一般化線形混合モデル isseing333
一般化線形混合モデル isseing333
 
遺伝疫学研究デザイン isseing333
遺伝疫学研究デザイン isseing333遺伝疫学研究デザイン isseing333
遺伝疫学研究デザイン isseing333
 
Analysis of clinical trials using sas 勉強用 isseing333
Analysis of clinical trials using sas 勉強用 isseing333Analysis of clinical trials using sas 勉強用 isseing333
Analysis of clinical trials using sas 勉強用 isseing333
 
統計概論 isseing333
統計概論 isseing333統計概論 isseing333
統計概論 isseing333
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
 
データ解析
データ解析データ解析
データ解析
 

生物統計特論3資料 2006 ギブス MCMC isseing333

  • 1. Sampling-Based Approaches to Calculating Marginal Densities Alan E. Gelfand, Afrian F. M. Smith Journal of the American Statistical Association, 85;410:398-409, 1990. 確率論的な substitution、Gibbs sampler、importance-resampling algorithm は、周辺確率分 布の数値的推定の計算アプローチに基づく 3 つの代替サンプリング(または Monte Carlo)と してみなすことができる。3 つのアプローチは、応用上しばしばさまざまな同時確率分布の 構造に関連して比較される。とくに、構造モデルのひとつである Bayesian の事後分布を計 算するアプローチの妥当性について議論する。 1. Introduction 確率変数 U1、U2、…Uk の集積に関して、次の(a)もしくは(b)の状況を仮定する。 (a) 条件分布 Ui|Uj(i=1,・・・, k)が得られる。 (b) 同時密度関数が既知でおそらく効率的な基準化定数であり、少なくてもひとつの (c) Ui|Uj が得られる。 “available”は、適切に条件付けられた変数の特定の値を与えた もとで、標本 Ui が簡単に効率的に発生するということを意味する。 <この論文の論点> 確率論的・数値的分析的モデルなしで、非解析的に得られるいくつかの周辺密度、もしく は、得られる条件付き分布からシミュレーションされた標本による簡単な Ui のすべての数 値的推測を得るために、(a)または(b)によって与えられる構造上の情報を発展させる。 (方法に基づいたサンプリングの魅力は概念的に容易で、数値的な解析の専門家がいなく ても、入手・計算が可能な情報を持っている利用者にとっては実施が簡易である。利用者 に必要なことは、関連する条件付き分布の確率構造と、適切な確率変数を効率的に発生さ せるための手技に関する知識である。) <論文内容の構成> 2 節…文献に基づいて、サンプリングアルゴリズムによって周辺密度を計算するための 3 つ の代替アプローチを議論する。 ① Taner & Wong:data-augmentation algorithm (→2.1) ② Geman & Geman:Gibbs sampler algorithm (→2.3) ③ Rubin:importance-sampling algorithm (→2.1、2.2) ・ Gibbs Sampler は広く取り上げられているが、慣習的な問題への一般化可能性(事後分布 1
  • 2. への適応など)は見過ごされている。 ・ Gibbs sampler と substitution、data-augmentation algorithm の密接な関係を述べる。この論 文では後者(data-augmentation algorithm)を一般化し、(a)に加えて異なった条件分布が 得られることを仮定すると、data-augmentation algorithm は少なくても Gibbs sampler と同 様 に 効 率 的 で あ る 。 ま た (a) に 加 え て 明 確 な 条 件 付 き 分 布 が 得 ら れ た も と で は 、 data-augmentation algorithm は、より本質的に効率的であることを示す。 ・ Gibbs sampler と data-augmentation algorithm の関係の結論は、German & German によって 確立された収束結果は、一般化された substitution algorithm に応用できる、ということ である。Tanner & Wong によって確立されたより強い収束結果は、特定の周辺分布の集 合が得られることが必要である。 ・ substitution と Gibbs sampler algorithm の両方とも Monte Carlo 積分の反復で、(a)によって 与えられた構造上の情報が得られるときに適用される。構造上の情報が(b)によって記述 される場合、Rubin による importance-sampling algorithm は、周辺密度を計算するための Monte Carlo の非反復積分アプローチを与える。 3 節:容易に導入される解を要求する 3 つのアプローチのひとつ以上が適用される場面でし ばしば発生する様々なモデル構造を提示する。とくに、不完全データの問題における Bayesianの事後分布、conjugate hierarchical model、normal data modelの計算について考える。 4 節:2 標本におけるいくつかの結果を簡単に要約する。 5 節:discussion 2. Sampling Approaches ・後でする仮定:実数であり標本空間で正である同時密度関数を持つ確率変数.完全条件 付分布によって同時分布を特定できる. ・全体を通しての仮定:全ての周辺分布と条件付分布をルベーグ測度によって定義する. 「分 布」と「密度」は表現上交換可能. 2
  • 3. ・密度は同時分布,条件付分布,周辺分布によって階層的に表現する. ・ [ X ] は分布を表し,X は実現値(サンプリング値)を表す. ・分布を掛ける際は「*」を用いる.簡便のため積分は次のように表現する. ・この例の場合は Z と W について積分している. ・h で表現することもある(この場合,Z で条件付けられたある分布に対して W で周辺を とることを表している) . 補足:X や Y は実際に適応する際には失測値や推定したいパラメータを表す. 2.1 Substitution or Data-Augmentation Algorithm . ・代替法はある積分の解を求める標準的な方法(Rall) ・統計学における有用性は Tanner and Wong によって示された(彼らはデータ拡大法と呼 んだ) . ・以下に理論の説明. ・こうすることで X を段階的に求めることができる. 特徴:TW1. 真の周辺分布は unique に求まる TW2. 初期値にかかわらず(3)式で表現される分布は真の分布に収束する TW3. 速さ(?) ・変数が k 個の時も同様. ・例:3 変数の場合. (5),(6)式を(4)式に代入すると,2 変数の場合と同じように X を用いて明示的に表現 できる. [ X ] ∫Y ,Z  X , Z Y  ∗ [Y ] =       ∫ = Y ,Z  X , Z Y  ∗ ∫Z ′, X ′ Y , X ′ Z ′ ∗ [ Z ′]         ∫ = Y ,Z  X , Z Y  ∗ ∫Z ′, X ′ Y , X ′ Z ′ ∗ ∫X ′′,Y ′  Z ′, Y ′ X ′′ ∗ [ X ′′]       = ∫     X ′′ {∫X ′,Y ,Y ′, Z , Z ′      }  X , Z Y  ∗ Y , X ′ Z ′ ∗  Z ′, Y ′ X ′′ ∗ [ X ′′]  = ∫ g ( X , X ′′ ) ∗ [ X ′′]     X ′′ 3
  • 4. ・ゆるい仮定をおけば U r , r ≠ s U s  ( s = 1, 2,..., k ) で表せる条件付分布によって同時分布を   unique に決定できる(つまり代替サンプリングを正当化できる) . 2.2 Substitution Sampling 代替サンプリング ・X と Y の条件付分布がわかっている場合に適応可能(1 節の a の状況) . ・代替サンプリングのサンプリング手順は以下のようになっている. [ X ]0 ~ X 1(0)    X Y1(1)  ~ X 1(1)     ………… ~ X 1( i −1)    X Y1(i )  ~ X 1(i )     ………… Y X 1(0)  ~ Y1(1) Y X 1(1)  ~ Y1(2) ………… Y X 1(i −1)  ~ Y1(i )       1 cycle i 回 iteration する(上の添え字 i に対応) このペアを m 個作る(m 回 replicate する,下の添え字 j に対応) ・それぞれのペア同士(replicate)は独立であるが,あるペア内のサンプル同士(iteration) は独立ではない. ・m ペアを replicate し,それらの条件付分布の平均をとることで分布の推定値を得る (Monte Carlo 法) . 4
  • 5. データ拡大法(Tannea and Wong) 1/m で Y を発生させる分布を選ぶ (Tanner and Wong は混合分布から Y を発生させている) X 1(0) Y X 1(0)  Y X (0)  ~ Y1(1)  X Y1(1)  ~ X 1(1) …    j    (0) X2 Y X 2  (0) Y X (0)  ~ Y2(1)  X Y2(1)  ~ X 2 (1) …    j    [ X ]0 : : : : : : (0) Xm Y X m  (0) Y X (0)  ~ Ym (1)  X Ym  ~ X m (1) (1) …    j    1 cycle i 回 iteration する(上の添え字が i になるまで) m 回 replicate ・m は任意に決めることができるので計算を節約できる可能性がある(補足:初めは小さ い m にしておいて,サンプリングが安定してきたら m を大きくする) . ・代替法とデータ拡大法は iteration と replicate の順番が逆になっているが,本質的には 同じサンプリング方法. 補足:・Rubin はデータ拡大法を multiple imputation と呼んだ.この例の場合に MI を対 応させると,X が失測値であり Y がパラメータである.Y の分布を推定するステ ップを“事後ステップ”と呼び,その他の X や Y をサンプルするステップを “imputation ステップ”と呼ぶ. ・Wei and Tanner はデータ拡大法を,EM アルゴリズムの E ステップにおいて Q function を求める際に適用することを提案した(MCEM). 以下,両方の方法に共通な説明. ・  X  が [ X ] に収束する簡単な説明. ˆ  i ・3 変数以上の場合も同様. ・完全同時分布は必要ないが,条件付分布を求める際に完全条件付分布や縮小条件付分布 が必要. 5
  • 6. 例:3 変数の場合,X に関する式を書き下すと次のようになる. [ X ] = ∫  X , Z Y  ∗ Y , X ′ Z ′ ∗  Z ′, Y ′ X ′′ ∗ [ X ′′]         ] = ∫  X Z , Y  ∗  Z Y  ∗ Y X ′, Z ′ ∗  X ′ Z ′ ∗  Z ′ Y ′, X ′′ ∗ Y ′ X ′′ ∗ [ X ′′] [X             上式:400 ページの真中あたりの説明で表現される式. 下式:(8)式の上の方の説明で表現される式(実際の計算はこの式に基づく) . →つまり 1cycle で 6 サンプル必要となることがわかる. ・変数が k 個あるときは 1 回の cycle で k(k-1)個のサンプルが必要(3 変数の場合は 6 サン プル) . ・iteration を i 回行い,replicate を m 回行うためには mik(k-1)個のサンプルが必要. ・分布の推定を行う際には,2 変数の場合と同じように条件付分布の平均をとる. 2.3 Gibbs Sampling ・変数が 3 個の場合,代替法では 6 個の条件付分布が必要であった. ・しかし完全条件付分布さえあれば,unique に同時分布や周辺分布を決定できるのでこれ を利用してサンプリングを行うことができる(Geman and Geman) →Gibbs sampler . と呼ぶ ・Hasting はこれより以前にこれと同等のことを述べていた. ・ギブスサンプリングはもともと画像修復やニューラルネットワーク,専門システムなど の複雑な確率モデルのために考案された方法. ・これらの分野では同時分布を求めることが困難である. ・しかし通常は,個々の完全条件付分布は変数のある subset にしか依存しないと仮定する ことが多い((11)式の形) . ・この仮定のとき,どのような条件付分布であれば同時分布を unique に決定できるか? ・Geman and Geman がこの疑問に対して答えている. ・今回の論文の例は全て満たしている. ・我々の分野では k はそんなに多くないし,同時分布を特定する過程で完全条件付分布を 計算することはできるだろう. 6
  • 7. ギブスサンプリング 初期値を任意に 決定する U1(0) U1(1) ~ U|U 2 ,..., U k(0)   1 (0)  U1(i ) (0) U2 U 2 ~ U|U1(1) , U 3(0) ,..., U k(0)  (1)  2  U 2i ) ( … m 回 replicate し, : : : (9)式の形で分布を U k(0) U k(1) ~ U|U1(1) ,..., U k(1)1   k −  U k(i ) 推定することも できる. …………… 1 i a.s. lim i →∞ i ∑ T (U1(l ) ,...,U k(l ) ) → E [T (U1 ,...,U k )] l =1 i 回 iteration したものを平均すると,期待値に概収束する. (エルゴード性) 特徴:GG1. 変数ベクトルは同時分布に分布収束し,各変数は各変数の分布に分布収束 する(変数が現れる順序が natural order でなくても,それぞれの変数が無限 回起これば良い. Infinitely often,io) . GG2. natural order であれば変数ベクトルは真の同時分布に収束する(natural order でない場合は rate が変わるだけ) . GG3. i 回 iteration したものを平均すると期待値に概収束する.エルゴード性) ( ・k 変数,i iteration,m replicate であれば mik 個のサンプルが必要. 補足:Meng and Schilling は EM アルゴリズムにおいてギブスサンプリングを適用するこ とを提案した. 2.4 Relationship Between Gibbs Sampling and Substitution Sampling ・2 変数の場合:ギブスサンプリングと代替サンプリングは等しい. ・k 変数の場合:ギブスサンプリングは k 個の完全条件付分布が必要(同時分布を特定する ための最小の数) . 代替サンプリングは k(k-1)個の条件付分布が必要. 7
  • 8. ・k が大きいとギブスサンプリングの収束は遅いことが知られている. ・サンプルの個数で比較すると,代替サンプリングで i 回の iteration ができるとすればギ ブスサンプリングでは i(k-1)回の iteration ができる. ・しかし代替サンプリングでは常に正確な分布からサンプルを得ているので収束は速い. ・完全条件付分布しか得られなかった場合,代替サンプリングはどのように適用できるか. ・結論から言うと,この場合は io visiting の順序が異なっている以外はギブスサンプリン グと同等である. ・具体的には sub-loop をまわすことで縮小条件付分布を推定することで,代替サンプリン グを適用できる(3 変数の場合(13)式を利用して推定できる) . →k 変数の場合にも拡張できる. ・今までは,条件付分布が全てわかっていないと代替サンプリングは使われなかった. ・しかし sub-loop を(10)式に組み込むことで代替サンプリングを適用できる. ・完全条件付分布のみは, cycle で 1 度は使われているので iteration を行うと io となり, 各 そのためこの分布だけは真の分布とみなせる(actually sampled from) . ・このような代替サンプリングは io visiting order 以外はギブスサンプリングと等しく,そ のため GG1~GG3 は満たされる(TW が満たされるのは全ての条件付分布が求まって . いる場合のみである) ・しかしこのような複雑な順序でサンプリングする利点はなく,通常のギブスサンプリン グで充分である. ・k 変数の場合でも以上の議論と同様の議論ができる. ・k 個の完全条件付分布しかわからない場合は,ギブスサンプリングと代替サンプリングは 等しい. ・縮小条件付分布がいくつか分かっている場合は代替サンプリングの方が速く収束する. ・このようにいくつかだけ分かっている場合に代替サンプリングを適用する際は,縮小条 件付分布が分かっていればそこからサンプリングし,そうでなければ完全条件付分布 からサンプリングすると良いかもしれない. 例:3 変数の場合にギブスサンプリングを代替法の順序で行うと,通常の順序で行った場合 の 2 倍のサンプルが必要となる.縮小条件付分布がわかっていれば対応する部分はそ れを用いてサンプリングする. ・3 節では縮小条件付分布がわかっている場合と分かっていない場合を考える. ・4 節ではシミュレーションによって,縮小条件付分布がわかっている場合の収束の速さは 重要ではないことを示す. 8
  • 9. 3. Examples ・主にベイズ流の推測によって周辺事後分布を計算する際にこれまで紹介した手法が使わ れる. ・近年そのような計算をする際に近似計算を行う方法が発展したが,それらは洗練された 専門家やソフトウェアが必要となる. ・しかしサンプリング法ではコンピュータ計算が非効率になる代わりに,そのようなもの は必要ではなくなる. ・様々な分野に適応できるように,これから 6 つの例を示す. 3.1 A Class of Multinomial Models ・連鎖解析の例.Tanner and Wong の方法を拡張した. ・測定値は個人の細胞ではなく,凝集した細胞なので多項分布からのサンプリングを考え る. ・Tanner のモデルはパラメータが 1 つであったが,今回は k パラメータの拡張への見通し をつけるために 2 つのパラメータで考える. ・Y に多項分布(5 項分布)を設定する(a,b,c は定数でθとηがパラメータ.a,b,c の関係 式は恒等式をパラメータについて解くと得られる) . ・パラメータについて 3 つの条件式が得られるので,パラメータの事前分布に 3 変数のデ ィクリレ分布を想定する. ・計算によって周辺分布を求めるのはちょっと複雑になってしまう. ・パラメータはθ,η,Z の 3 つ. ・ギブスサンプリングは 3 つの完全条件付分布が必要であり,これは入手可能. ・今回の場合は縮小条件付分布も入手可能なので,収束の速さを調べることができる. ・importance sampling では? 3.2 Hierarchical Methods Under Conjugacy ・ベイズ流の k 層の階層モデルを考える(?). ・通常θk 以外は漠然事前分布である. 9
  • 10. ・(17)式は事前分布を更新したもの(?). ・縮小条件付分布が無ければ,周辺事後分布を推定するのにギブスサンプリングを行う. ・分かりやすくするため k=3 の場合を考えると,条件付分布のなかに計算可能なものとそ うでないものがあることがわかる. ・交換可能な(?)ポアソンモデルを考える. ・ポアソン分布の事前分布にガンマ分布を,さらにその事前分布に逆ガンマ分布を想定す る. ・するとパラメータに関する完全条件付分布を計算できるが(18,19) ,縮小条件付分布は 計算できない. ・ギブスサンプリングでは,λをガンマ分布から,βを逆ガンマ分布から得ることができ, さらにその分布を推定することもできる. ・Rubin は? 3.3 Multivariate Normal Sampling ・平均と分散共分散行列に事前分布を想定した多変量正規分布からの標本では,完全条件 付分布と,縮小条件付分布のうちいくつかしか計算できないことが多い. ・中略 ・縮小条件付分布がわかるので,代替サンプリングを用いることで収束が速くなる. ・Rubin の方法は単純になる. 4. Numerical Illustrations 4.1 A Multinomial Model ・多項分布の例に 3 つの方法を適用した. ・事前分布がディクリレ分布である多項分布から Y=(14,1,1,1,5)が得られたとする. ・ここで興味のある事はパラメータの周辺事後分布である. ・ギブスサンプリングと代替サンプリングを比較する. ・まず Smith の方法によって正確な分布のパーセントタイル点を計算した. ・θとηは一様分布から発生し,足して 1 を超えないようにする. ・m=10 とし,各サンプリングで発生する変数の数が同じになるようにする. 10
  • 11. ・各サンプリング法で推定した分布の,真のパーセンタイルまでの累積確率と標準誤差を 計算し,どちらのサンプリング方法が真の値に近いかを%で表す. ・表 1 に最初の 4cycle の結果を示す. ・特にηに関して,代替サンプリングの方が速く真の分布に近づいていることがわかる. ・3,4 週目では両方同じくらい良いパフォーマンスを示している. ・m=10 でありパラメータは無情報であるのにかかわらず,4 週目で既に推定された周辺分 布の累積確率は真の分布のものとほとんど等しい. ・4.2 の結果も総合すると,Tanner and Wong が報告しているよりもずっと少ない変数の 数で充分に収束するであろう. ・Rubin の方法の結果を表 2 に示す. ・m=40,200,2500 回繰り返しにかかわらず,ギブスや代替法に比べてかなり劣っている. ・一般的に,Rubin の方法は初期分布の選び方に強く依存し,(?) 11