SlideShare a Scribd company logo
1 of 35
Download to read offline
PRML読書会 発表資料
  9.2 混合ガウス分布
  Presented by takmin
この章でやりたいこと
• ある観測データxが混合ガウス分布に従うときの最尤
  推定を行いたい.
 混合ガウス分布
                K
       p(x)    k Ν( x | μ k , Σ k )             (9.7)
               k 1

 尤度関数
                      N
                        K                     
 p( X | π, μ, Σ)     k Ν(x n | μ k , Σ k )
                   n 1  k 1                 
                          観測データが与
                          えられたとき
  こいつを最大化する                          こいつらを求めたい

そのための計算方法を求める = EMアルゴリズムの導出
この章の流れ
• 9.2 混合ガウス分布
  – 混合ガウス分布に潜在変数zと負担率γ という考え
    方を導入する
• 9.2.1 最尤推定
  – 混合ガウス分布の対数尤度関数に対して最尤推定
    を行うのはとにかく難しい,ということを説明する
• 9.2.2 混合ガウス分布のEMアルゴリズム
  – 潜在変数zと負担率γ という考え方を利用して,対数
    尤度関数を最大化するためのアルゴリズムを導出す
    る.
  – アルゴリズムまとめ
9.2 混合ガウス分布
• 混合ガウス分布
                             K
              p(x)    k Ν( x | μ k , Σ k )                                    (9.7)
                            k 1

                          1          1          1                           
 N(x | μ k , Σ k )                         exp (x  μ k )T Σ 1 (x  μ k )
                       (2 ) D / 2 Σ k 1/ 2
                                                                k                (2.43)
                                                2                           
                                                     Σ2

 K=2 の例                      Σ1
                                                    2
                             1

                              μ1                      μ2
潜在変数zを導入
• 潜在変数zを導入することで,以下の形に定式化したい


    p(x)   p(x, z )   p(z) p(x | z )
            z            z


                Z




                X
潜在変数z

z  z1, , zk ,, zK 
                                                           K
                                                                    
                                         zk  0,1,        zk  1
                             T

                                                           k 1    

潜在変数の事前分布 P(z)
 p ( z k  1)   k
           K
 p(z )                                                      
                  zk                                 K
                  k                  0   k  1,
                                    
                                                       k  1 
                                                                    (9.10)
           k 1                                      k 1



K=2 の例      p(z)                             2
                       1

                       z1  (1,0)           z 2  (0,1)
観測データの事後分布 P(x|z)


   p(x | zk  1)  Ν( x | μ k , Σ k )
                 K
   p(x | z )   Ν( x | μ k , Σ k )     zk
                                             (9.11)
                k 1




p(x | z)                                              Σ2
              Σ1
                       p(x | z1  1)                       p(x | z2  1)

              μ1                                      μ2
演習9.3
         K                                            K
p(z )         zk
                 k     (9.10)      と   p(x | z )   Ν( x | μ k , Σ k ) zk     (9.11) から
         k 1                                         k 1
         K
p(x)    k Ν( x | μ k , Σ k )           (9.7)       を導く
        k 1

答え:
p(x)   p(x, z )   p(z) p(x | z )
          z                        z
                K           K                                           K
                         N(x | μ           , Σ k )    k N( x | μ k , Σ k )
                       zk                             zk                                   zk
                       k                    k
          z     k 1        k 1                                    z   k 1

       zは1-of-K表現なので,Ikj= (k==j)? 1 : 0 とすると
          K      K                                           K
         k N( x | μ k , Σ k ) kj    k N( x | μ k , Σ k )
                                                  I

         j 1 k 1                                           j 1
観測データxnには必ず対応する潜在変数znが存在する
                                                        2
 p(z)                          1

                               z1  (1,0)              z 2  (0,1)
                                                                      Σ2
                     Σ1
p(x | z)                     p(x | z1  1)                                  p(x | z2  1)

                      μ1                                               μ2

p ( x)   p ( z ) p ( x | z )
           z


                      1 p(x, z1 | μ1 , Σ1 )    2 p(x, z 2 | μ 2 , Σ 2 )
負担率
xが与えられた元でのzkの条件付き確率
                                         k          Ν( x | μ k , Σ k )

                                     p( zk  1) p(x | zk  1)
 ( z k )  p ( z k  1 | x)    K

                                  p( z
                                 j 1
                                              k    1) p(x | zk  1)

                                      k Ν(x | μ k , Σ k )
                                 K

                                 
                                  j 1
                                         j   Ν( x | μ j , Σ j )

     『混合要素kがxの観測を「説明する」度合いを表す』
                                         ???

     データxが混合要素kから発生したものである可能性
負担率
                                   k Ν(x | μ k , Σ k )
                     ( zk )    K

                                 
                                 j 1
                                        j   Ν( x | μ j , Σ j )


                  L1
 ( z n1 ) 
               L1  L2
                                                           2 p(x, z 2 | μ 2 , Σ 2 )

 ( zn 2 )       L2
                             1 p(x, z1 | μ1 , Σ1 )
               L1  L2

                                              L1
                                                     L2

                                                xn
ランダムサンプルの生成
混合ガウスモデルに従うランダムサンプルを生成したい
伝承サンプリング
z→xの順にサンプルを生成する


Z
          p(z)                  2
                  1

                  z1  (1,0)   z 2  (0,1)
X
ランダムサンプルの生成
混合ガウスモデルに従うランダムサンプルを生成したい
伝承サンプリング
z→xの順にサンプルを生成する     Σ1
                         p(x | z1  1)
Z

                    μ1

                    Σ2

X                        p(x | z2  1)
         p(x | z)
                    μ2
ランダムサンプルの生成
混合ガウスモデルに従うランダムサンプルを生成したい
伝承サンプリング
z→xの順にサンプルを生成する


Z
           ランダムサンプルを繰り返して,最終的
           に得られる分布

           p(x)
X
ランダムサンプルの生成




(a) 同時分布p(x,z)からのサンプル
     • xは2次元空間上の位置
     • zは3つの状態を色で表す
(b) p(x)
     • xがどのzから生成されたのかわからない
(c) 負担率γ
9.2.1 最尤推定
観測したデータ集合Xに混合ガウス分布を当てはめたい。


Z  (z ,, z )
       T
       1
                T T
                N               zn
                            π
z n  ( zn1 ,, znK )   T




X  (x1 ,, xT )T
      T
             N                  xn
                            μ            Σ
xn  ( xn1 ,, xnD )    T
                                     N
対数尤度関数
混合ガウス分布の対数尤度を最大化したい

                     K
                          K                       
ln p( X | π, μ, Σ)   ln  k Ν(x n | μ k , Σ k )
                     k 1  k 1                   
                          観測データが与
                          えられたとき
  こいつを最大化する                      こいつらを求めたい




               色々と困難な問題がある
特異性の問題
Σ k  σ k I の混合ガウス分布を例に
        2



あるデータnについて                 μ j  x n が成り立ったとする。

N( x n | μ n , σ 2 I )  N( x n | x n , σ 2 I )
                 j                        j

                           1       1          1                2 1            
                                         exp (x n  x n ) (σ j ) (x n  x n )
                                                            T

                        (2 ) D/2  2 1/ 2
                                  σj          2                                
                             1         1
                      
                          (2 ) D / 2  j

                            σ j  0 の時,無限大に発散してしまう
特異性の問題




μをxnにσを0に近づけると尤度が無限大になる
特異性の問題
単一のガウス分布の場合




μをxnにσを0に近づけると,尤度は0になる
識別不可能性
                                     2 p(x, z 2 | μ 2 , Σ 2 )

       1 p(x, z1 | μ1 , Σ1 )
p(x)


                                    1 p(x, z1 | μ1 , Σ1 )

        2 p(x, z 2 | μ 2 , Σ 2 )




                  同等な解がK!個存在する
対数尤度関数
混合ガウス分布の対数尤度を用いた最尤推定の困難さ

                     N
                          K                       
ln p( X | π, μ, Σ)   ln  k Ν(x n | μ k , Σ k )
                     n 1  k 1                   
                            対数の中に和が入ってしまっ
                                 ている


                                •特異性の問題
                                •識別不可能性
9.2.2 混合ガウス分布のEMアルゴリ
          ズム
対数尤度関数を最大化したい
対数尤度関数:

                      K
                           K                       
 ln p( X | π, μ, Σ)   ln  k Ν(x n | μ k , Σ k )
                      k 1  k 1                   

極大値を求めるために,それぞれのパラメータ μ k , Σ k
の導関数が0となる値を求める
               K
 k については   k  1 の制約のもとラグランジュ未定
              k 1
係数法で解く
μkについて
                                       N   K                     
μ k
     ln p( X | π, μ, Σ) 
                          μ k
                                         ln j Ν(xn | μ j , Σ j )
                                        n 1  j 1                 

                   N
                           K                                                         
                        ln  j Ν(x n | μ j , Σ j )       
                                                                 ln( f (x))            x
                                                                                            f ( x)
                n 1 μ k    j 1                          x                           f ( x)
                      
                           k Ν( x n | μ k , Σ k )  
                 N
                     μ k                               N( x n | μ k , Σ k )
                K                                μ k
                n 1
                        j Ν(x n | μ j , Σ j )  Σ 1 (x  μ ) N(x
                          j 1
                                                                      k     n   k   n   | μk , Σk )
                  N
                           k Ν( x n | μ k , Σ k )
                       K
                                                            Σ 1 (x n   k )
                                                              k
                  n 1
                         
                         j 1
                                 j   Ν( x n | μ j , Σ j )

                                      ( z nk )
μkについて
 N

  ( znk ) Σ 1 (x n  μ k )  0
n 1
                k




N                      N

 (z
n 1
        nk   )μ k    ( znk )x n
                       n 1


                N
       1                                               N
  μk 
       Nk
                (z
                n 1
                              nk   )x n   ただし   N k    ( znk )   (9.17)
                                                      n 1
Σkについて
  
      ln p( X | π, μ, Σ)  0      の時
 Σ k
          N
     1
Σk         ( z nk )x n  μ k x n  μ k T となる   (9.19)
     Nk   n 1




スイマセン!解き方がわかりませんでした!
π kについて
                              K
     ln p(X | π,μ,Σ) を        
                              k 1
                                     k    1 の制約のもとで最大化したい

     ラグランジュ未定係数法
                                           K        
       L( k ,  )  ln p( X | π,μ,Σ)      k  1
                                           k 1     
                  N
                               K                           K            
     L( k ,  )           ln  j Ν( x n | μ j , Σ j )        k  1
 k               n 1 π k     j 1                     π k  k 1      
                     N
                             Ν( x n | μ k , Σ k )
                  K                               0
                   n 1
                          j Ν(x n | μ j , Σ j )
                       j 1
π kについて
   N
                 Ν( x n | μ k , Σ k )
         K
                                                  0           N
  n 1
                    j   Ν( x n | μ j , Σ j )                   1    0
                                                                 n 1
          j 1

                                   両辺にπ kをかける
 N
           k Ν( x n | μ k , Σ k )                                     N
        K
                                               k  0
 n 1
         
         j 1
                  j   Ν( x n | μ j , Σ j )
                                                          N
                                  1-Kまでの和                  (z
                                                          n 1
                                                                     nk   )  N k  0
                               1            
 K  N
                                          1
            k Ν( x n | μ k , Σ k )         
  K                                  k   0                k 
                                                                       Nk
                                                                                    (9.22)
k 1  n 1
      j 1
              j Ν(x n | μ j , Σ j )        
                                             
                                                                       N
                                            
EMアルゴリズム概要
(9.17),(9.19),(9.22)の結果は,  ( z nk ) を固定した時の最尤推
定の解

         ( z nk ) 自体がμ, Σ, π の影響を受ける.


 ( z nk ) の計算と μ, Σ, πの推定を交互に繰り返しながら,最適
な解を求める

Eステップ: 負担率  ( z nk ) を計算する.
Mステップ: μ, Σ, π を計算する.
Old Faithful間欠泉データの例
EMアルゴリズム
1. 平均 μ ,分散Σ ,そして混合係数 π を初期
  化し,対数尤度の初期値を計算する.
                           N
                              K                       
    ln p( X | π, μ, Σ)   ln  k Ν(x n | μ k , Σ k )
                         n 1  k 1                   
                                       Σ2

                     Σ1
                                                   のlnの総和=対数尤度

  K=2 の例                               2
                     1

                      μ1                μ2
EMアルゴリズム
2. Eステップ:現在のパラメータ値を使って,次
  式の負担率を計算する.
                                             k Ν(x | μ k , Σ k )
                               ( zk )     K

                                           
                                           j 1
                                                     j   Ν( x | μ j , Σ j )

                    L1
 ( z n1 )                                                2 p(x, z 2 | μ 2 , Σ 2 )
               L1       L2


                    L2
                              1 p(x, z1 | μ1 , Σ1 )
 ( zn 2 ) 
               L1       L2

                                                L1
                                                         L2

                                                  xn
EMアルゴリズム
3. Mステップ:現在の負担率を使って,次式で
  パラメータを再計算する.N
       1 N                    1
  μk      ( z nk )x n Σk      ( z nk )x n  μ k x n  μ k T
        Nk   n 1                       Nk   n 1

        Nk                 N
   k              N k    ( znk )
        N                 n 1
EMアルゴリズム
4. 対数尤度を計算し,パラメータ値の変化または対数尤
   度の変化を見て,収束性を確認し,収束基準を満たし
   ていなければステップ2に戻る.
                        K
                             K                       
   ln p( X | π, μ, Σ)   ln  k Ν(x n | μ k , Σ k )
                        k 1  k 1                   
この章のまとめ
• 9.2 混合ガウス分布(Mixtures of Gaussians)
  – 混合ガウス分布は潜在変数zによって生成されたk個のガウス
    分布が合わさったものだと考えよう
     • 負担率=観測xがどれだけzに起因してそうか
• 9.2.1 最尤推定
  – 混合ガウス分布の対数尤度関数に対して最尤推定を行うのは
    結構難しい
• 9.2.2 混合ガウス分布のEMアルゴリズム
  – アルゴリズムの導出方法
     • 負担率を固定して,それぞれのパラメータの微分値が0となる値を求
       める
  – アルゴリズムまとめ
     • Eステップ:パラメータを固定して負担率を計算
     • Mステップ:負担率を固定して,尤度を最大化するパラメータを計算

More Related Content

What's hot

グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?Deep Learning JP
 
強化学習その4
強化学習その4強化学習その4
強化学習その4nishio
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10matsuolab
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」moterech
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展Deep Learning JP
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333Issei Kurahashi
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)Takao Yamanaka
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)narumikanno0918
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布Junya Saito
 

What's hot (20)

PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
強化学習3章
強化学習3章強化学習3章
強化学習3章
 
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?
 
PRML8章
PRML8章PRML8章
PRML8章
 
強化学習その4
強化学習その4強化学習その4
強化学習その4
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
 

Similar to Chapter9 2

13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデルshow you
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論sleepy_yoshi
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filterSatoshi Minakuchi
 
ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率Masaki Asano
 
Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説Tomonari Masada
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Wataru Kishimoto
 
Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Koji Sekiguchi
 
複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフ複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフShintaro Takemura
 
topology of musical data
topology of musical datatopology of musical data
topology of musical dataTatsuki SHIMIZU
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布kunihikokaneko1
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11Takuya Fukagai
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングMaruyama Tetsutaro
 
Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Yo Ehara
 

Similar to Chapter9 2 (20)

13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
Chapter11.2
Chapter11.2Chapter11.2
Chapter11.2
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filter
 
ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率
 
Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
 
17th cvsaisentan takmin
17th cvsaisentan takmin17th cvsaisentan takmin
17th cvsaisentan takmin
 
Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフ複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフ
 
topology of musical data
topology of musical datatopology of musical data
topology of musical data
 
PRML Chapter5.2
PRML Chapter5.2PRML Chapter5.2
PRML Chapter5.2
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布
 
PRML復々習レーン#11
PRML復々習レーン#11PRML復々習レーン#11
PRML復々習レーン#11
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
 
Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 

More from Takuya Minagawa

Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureMachine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureTakuya Minagawa
 
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイTakuya Minagawa
 
Learning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsLearning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsTakuya Minagawa
 
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfTakuya Minagawa
 
楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事Takuya Minagawa
 
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)Takuya Minagawa
 
2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)Takuya Minagawa
 
20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representationTakuya Minagawa
 
20190307 visualslam summary
20190307 visualslam summary20190307 visualslam summary
20190307 visualslam summaryTakuya Minagawa
 
20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation surveyTakuya Minagawa
 
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentationTakuya Minagawa
 
run Keras model on opencv
run Keras model on opencvrun Keras model on opencv
run Keras model on opencvTakuya Minagawa
 
20181130 lidar object detection survey
20181130 lidar object detection survey20181130 lidar object detection survey
20181130 lidar object detection surveyTakuya Minagawa
 
object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)Takuya Minagawa
 

More from Takuya Minagawa (20)

Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureMachine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
 
MobileNeRF
MobileNeRFMobileNeRF
MobileNeRF
 
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
 
Learning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsLearning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal Problems
 
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
 
楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事
 
20210711 deepI2P
20210711 deepI2P20210711 deepI2P
20210711 deepI2P
 
20201010 personreid
20201010 personreid20201010 personreid
20201010 personreid
 
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)
 
2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)
 
20200704 bsp net
20200704 bsp net20200704 bsp net
20200704 bsp net
 
20190825 vins mono
20190825 vins mono20190825 vins mono
20190825 vins mono
 
20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation
 
20190307 visualslam summary
20190307 visualslam summary20190307 visualslam summary
20190307 visualslam summary
 
Visual slam
Visual slamVisual slam
Visual slam
 
20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey
 
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
 
run Keras model on opencv
run Keras model on opencvrun Keras model on opencv
run Keras model on opencv
 
20181130 lidar object detection survey
20181130 lidar object detection survey20181130 lidar object detection survey
20181130 lidar object detection survey
 
object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)
 

Chapter9 2