SlideShare a Scribd company logo
1 of 34
Download to read offline
第16回PRML読書会 発表資料
13.2.3 HMMの積和アルゴリズム
         2010/07/17
     Presented by takmin
この章で言いたいこと
• 積和アルゴリズムでもフォワード-バックワード
  アルゴリズムが導出できる
おさらい:積和アルゴリズム
• グラフィカルモデルにおける各ノード x n の周
  辺分布 p ( xn ) を求めるアルゴリズム
• 有向/無向グラフを因子グラフに変換し,各
  ノードからメッセージを計算しながら伝搬する
      p(z1 )   p(z 2 )   p ( z n 1 )   p(z n )   p ( z n 1 )
求まる
おさらい:積和アルゴリズム
• 因子グラフ
  – 確率モデルを因数分解の形で表したグラフ
   p( x1 , x2 , x3 , x4 , x5 )  f1 ( x1 , x2 ) f 2 ( x2 , x3 , x4 ) f 3 ( x4 , x5 )

          x5                            x3                          x1         変数
                                                                               ノード

                                                                               因子
f 3 ( x4 , x5 )         f 2 ( x2 , x3 , x4 )               f1 ( x1 , x2 )      ノード



                       x4                             x2
おさらい:積和アルゴリズム
 • 因子グラフの作り方
                                f ( x1 , x2 , x3 )
       p( x1 )       p ( x2 )       p( x3 | x1 , x2 ) p( x1 ) p( x2 )




p( x3 | x1 , x2 )

                 有向グラフ                   因子グラフ
おさらい:積和アルゴリズム
 • 因子グラフの作り方
                                f a ( x1 )  p( x1 )
                                f b ( x2 )  p ( x 2 )
       p( x1 )       p ( x2 )
                                f c ( x1 , x2 , x3 )  p( x3 | x1 , x2 )




p( x3 | x1 , x2 )

                 有向グラフ                  因子グラフ
おさらい:積和アルゴリズム
• メッセージの伝搬
 – 各変数ノード,因子ノードでの計算結果を伝搬し
   ていき,各変数ノードにおける分布 p ( xn ) を求め
   る
  x5                      x3                             x1
        x  f
             5     3                   f                               x  f
                                                                          1   1
                                            2  x3

   f3    f               f2                              f1
                 3  x4                     x  f
                                                2    2


                                                                f x
        x4                x  f
                               4   2
                                        x2
                                                                 1   1
おさらい:積和アルゴリズム
1. 始点(葉ノード)を決めて,メッセージの伝搬
   を開始する
 – 始点が変数ノードの場合                   x f
    x  f ( x)  1
                 (8.70)    x             f

 – 始点が因子ノードの場合
                                f x
   f  x ( x)  f ( x)
                  (8.71)   f             x
おさらい:積和アルゴリズム
2. 各ノードでメッセージを計算
 – 変数ノードの場合
  x   m  fs
                ( xm )         
                           lne( xm )  f s
                                               f l  xm   ( xm )   (8.69)


       f1
                     f x m
                      1

            ・
            ・
                                x   m   fs
       fl   ・


            ・
            ・
                           xm                  fs
       fL   ・
おさらい:積和アルゴリズム
2. 各ノードでメッセージを計算
 – 因子ノードの場合
  f  x ( x)   f s ( x, x1 ,, xM )
   s                                                       xm  f s   ( xm )
                x1         xM                 mne( f s )  x
       x1                                                               (8.66)
                     x  f s
                       1


            ・                     f x
            ・                      s
       xm   ・


            ・
            ・               fs            x
       xM   ・
おさらい:積和アルゴリズム
3. メッセージが根ノードに達したら,葉ノードに
   向けて逆向きにメッセージを伝搬していく




 (a)葉ノードから根ノードへ   (b)根ノードから葉ノードへ
おさらい:積和アルゴリズム
4. 逆伝播メッセージが葉ノードまで達したら,
   各変数ノードの周辺分布 p ( xn ) を以下の式で
   求める
     p( xn )    f s  xn ( xn ) (8.63)
                sne( xn )

                             fs
                       f x
                         s


           f1                         fS

                                  x
おさらい:積和アルゴリズム
5. 各因子ノードに接続された周辺の変数群 x s
   の同時分布は以下の式で求める
    p(x s )  f s (x s )        
                           ine( f s )
                                         xi  f s   ( xi )   (8.72)




                     xi

                   x  f
                     i      s




                                fS
HMMの積和アルゴリズム
• HMMを因子グラフへ変換

有向グラフ



        観測値は因子ノードに
          入れてしまう

因子グラフ
HMMの積和アルゴリズム
• HMMを因子グラフへ変換

 HMM




                                     N                 N
p(x1 ,, x N , z1 ,, z N )  p(z1 )  p(z n | z n1 ) p(x n | z n )
                                      n2              n1
                                                              (13.6)
HMMの積和アルゴリズム
• HMMを因子グラフへ変換


                                      N                 N
p(x1 ,, x N , z1 ,, z N )  p(z1 )  p(z n | z n 1 ) p(x n | z n )
                                      n2               n 1
                                          N
                                h(z1 ) f n (z n 1 , z n )
                                         n2

h(z1 )  p(z1 ) p(x1 | z1 )                                (13.45)


f n (z n 1 , z n )  p(z n | z n 1 ) p (x n | z n )      (13.46)
HMMの積和アルゴリズム
1. 始点(葉ノード)を決めて,メッセージの伝搬
   を開始する
       h z   1




  h                z1

  hz (z1 )  h(z1 )
        1
HMMの積和アルゴリズム
1. 始点(葉ノード)を決めて,メッセージの伝搬
   を開始する
 – フォワード-バックワードアルゴリズムとの比較
積和アルゴリズム

     hz (z1 )  h(z1 )  p(z1 ) p(x1 | z1 )
          1
                                                            (13.45)


                                        (z1 )   f   n z n
                                                                (z1 )

フォワード-バックワードアルゴリズム

               (z1 )  p(z1 ) p(x1 | z1 )                  (13.37)
HMMの積和アルゴリズム
2. 各ノードでメッセージを計算
 – 変数ノードの場合
  z   n  f n1
                   (z n )                        f l z n
                                  lne( z n )  f n1
                                                                 (z n )     (8.69)



                               f n z n ( z n )                         (13.47)


                        f   n z n
                                            z   n   f n 1



                   fn                  zn               f n 1
HMMの積和アルゴリズム
2. 各ノードでメッセージを計算
 – 因子ノードの場合
  f   n z n
                (z n )   f s (z n , z m )                             zm  fn   (z m )   (8.66)
                          zm                              mne( f n )  z n

                       f n (z n 1 , z n )  z n1  f n (z n 1 )                    (13.48)
                         z n1


                          z     n1  f   n
                                                    f   n z n




                      z n 1                   fn                 zn
HMMの積和アルゴリズム
2. 各ノードでメッセージを計算
変数ノード:
 z   n  fn
             (z n1 )   f n1 z n1 (z n1 )                       (13.47)


因子ノード:
f   n z n
            (z n )   f n (z n1 , z n )  z n1  f n (z n1 )      (13.48)

                        z n1




f   n z n
              (z n )   f n (z n1 , z n )  f n1 z n1 (z n1 )   (13.49)
                        z n1
HMMの積和アルゴリズム
2. 各ノードでメッセージを計算
 – フォワード-バックワードアルゴリズムとの比較
積和アルゴリズム
 f   n z n
               (z n )   f n (z n 1 , z n )  f n1 z n1 (z n 1 )   (13.49)
                         z n1          (13.46)

                        p(z n | z n 1 ) p(x n | z n )  f n1 z n1 (z n 1 )
                         z n1

                                                          (z n )   f   n z n
                                                                                   (z n )
フォワード-バックワードアルゴリズム

       (z n )  p(x n | z n )  (z n1 ) p(z n | z n 1 )                    (13.36)
                                       z n1
HMMの積和アルゴリズム
2. 各ノードでメッセージを計算
 – フォワード-バックワードアルゴリズムとの比較



  (z n )   f   n z n
                         (z n )   (13.50)
HMMの積和アルゴリズム
3. メッセージが根ノードに達したら,葉ノードに
   向けて逆向きにメッセージを伝搬していく
 – 根ノードの始点が変数ノード

      z   N  fN
                    (z N )  1                (8.70)




                             z   N    fN




                        fN                   zN
HMMの積和アルゴリズム
3. メッセージが根ノードに達したら,葉ノードに
   向けて逆向きにメッセージを伝搬していく
 – フォワード-バックワードアルゴリズムとの比較
積和アルゴリズム
           z   N  fN
                         (z N )  1                         (8.70)


                                       (z N )   z   N  fN
                                                                (z N )

フォワード-バックワードアルゴリズム

                  (z N )  1                               (13.37)
HMMの積和アルゴリズム
3. メッセージが根ノードに達したら,葉ノードに
   向けて逆向きにメッセージを伝搬していく

 z   n  fn
               (z n )   f n1 z n (z n )
                        f n1 (z n , z n1 )  z n1  f n1 (z n1 )                   (13.51)’
                           z n1

                      z   n  fn
                                         f   n1  z n
                                                             z    n1  f n1




                 fn                 zn                    f n 1                 z n 1
HMMの積和アルゴリズム
 3. メッセージが根ノードに達したら,葉ノードに
    向けて逆向きにメッセージを伝搬していく
      – フォワード-バックワードアルゴリズムとの比較
 積和アルゴリズム
 z   n  fn
               (z n )   f n 1 (z n , z n 1 )  z n1  f n1 (z n 1 )            (13.51)’
                         z n1
                                           (13.46)
                       p(z n 1 | z n ) p(x n 1 | z n 1 )  z n1  f n1 (z n 1 )
                         z n1
                                                             (z n )   z   n  fn
                                                                                      (z n )
フォワード-バックワードアルゴリズム
         (z n )    (z n1 ) p(x n1 | z n1 ) p(z n1 | z n )                      (13.38)
                        z n1
HMMの積和アルゴリズム
3. メッセージが根ノードに達したら,葉ノードに
   向けて逆向きにメッセージを伝搬していく
 – フォワード-バックワードアルゴリズムとの比較


   (z n )   z   n  fn
                          (z n )   (13.52)’
HMMの積和アルゴリズム
4. 逆伝播メッセージが葉ノードまで達したら,
   各変数ノードの周辺分布 p ( z n ) を以下の式で
   求める
     p ( z n )    f s z n ( z n ) (8.63)’
               sne( z n )

              f n z n (z n )  f n1 z n (z n )
                   f   n z n
                                      f   n1  z n




              fn                 zn                f n 1
HMMの積和アルゴリズム
周辺分布 p ( z n ) は既に観測変数 X  x1 ,  , x N 
により条件付けられているので,
p(z n , X)   f n z n (z n )z n  f n (z n )   (z n ) (z n )
                                                             (13.53)


                p(z n , X)  (z n ) (z n )
      (z n )                                              (13.54)
                 p(X)          p( X)

    (13.33)と同じγ (zn)が導けた!
HMMの積和アルゴリズム
5. 各因子ノードに接続された周辺の変数群 x s
   の同時分布は以下の式で求める
             p(x s )  f s (x s )             
                                            ine( f s )
                                                          xi  f s   ( xi )   (8.72)




p(z n1 , z n )  f n (z n1 , z n )z n  f n (z n )z n1  f n (z n1 )
                          z    n1  f n
                                                z   n  fn




                       z n 1                fn               zn
HMMの積和アルゴリズム
演習13.11
ξ (zn-1, zn)を導く
p(z n1 , z n , X)  f n (z n1 , z n ) z n  f n (z n ) z n1  f n (z n1 )
                 p(z n | z n1 ) p(x n | z n )  (z n ) (z n1 )
                                             p(z n 1 , z n , X)
 (z n 1 , z n )  p(z n 1 , z n | X) 
                                                  p ( X)
                    (z n 1 ) p(x n | z n ) p(z n | z n 1 )  (z n )
                 
                                        p ( X)
         (13.43)と同じξ (zn-1, zn)が導けた!
まとめ
• 積和アルゴリズムでもフォワード-バックワード
  アルゴリズムと同じことができた。
ご静聴ありがとうございました。

More Related Content

What's hot

PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5matsuolab
 
[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題tmtm otm
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12matsuolab
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論sleepy_yoshi
 
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半Katsushi Yamashita
 
Deep Mixtures of Factor Analysers
Deep Mixtures of Factor AnalysersDeep Mixtures of Factor Analysers
Deep Mixtures of Factor AnalysersJunya Saito
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム裕樹 奥田
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Takao Yamanaka
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類t dev
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」Keisuke Sugawara
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8matsuolab
 
強化学習その3
強化学習その3強化学習その3
強化学習その3nishio
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリングKosei ABE
 
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)Nguyen Tuan
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14matsuolab
 
確率的推論と行動選択
確率的推論と行動選択確率的推論と行動選択
確率的推論と行動選択Masahiro Suzuki
 

What's hot (20)

PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半
 
Deep Mixtures of Factor Analysers
Deep Mixtures of Factor AnalysersDeep Mixtures of Factor Analysers
Deep Mixtures of Factor Analysers
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム数式を使わずイメージで理解するEMアルゴリズム
数式を使わずイメージで理解するEMアルゴリズム
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類
 
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
強化学習その3
強化学習その3強化学習その3
強化学習その3
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリング
 
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
 
確率的推論と行動選択
確率的推論と行動選択確率的推論と行動選択
確率的推論と行動選択
 

Similar to Chapter13.2.3

データ圧縮
データ圧縮データ圧縮
データ圧縮Joe Suzuki
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデルshow you
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)Yoshitake Misaki
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタToshihisa Tanaka
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半Ohsawa Goodfellow
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論sleepy_yoshi
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filterSatoshi Minakuchi
 
Introduction to Categorical Programming (Revised)
Introduction to Categorical Programming (Revised)Introduction to Categorical Programming (Revised)
Introduction to Categorical Programming (Revised)Masahiro Sakai
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介Deep Learning JP
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
Shunsuke Horii
Shunsuke HoriiShunsuke Horii
Shunsuke HoriiSuurist
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Wataru Kishimoto
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 
ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率Masaki Asano
 
PRML 2.3.9-2.4.1
PRML 2.3.9-2.4.1PRML 2.3.9-2.4.1
PRML 2.3.9-2.4.1marugari
 
Introduction to Categorical Programming
Introduction to Categorical ProgrammingIntroduction to Categorical Programming
Introduction to Categorical ProgrammingMasahiro Sakai
 

Similar to Chapter13.2.3 (20)

PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
データ圧縮
データ圧縮データ圧縮
データ圧縮
 
ma99992011id508
ma99992011id508ma99992011id508
ma99992011id508
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタ
 
NLPforml5
NLPforml5NLPforml5
NLPforml5
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filter
 
Introduction to Categorical Programming (Revised)
Introduction to Categorical Programming (Revised)Introduction to Categorical Programming (Revised)
Introduction to Categorical Programming (Revised)
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
Shunsuke Horii
Shunsuke HoriiShunsuke Horii
Shunsuke Horii
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 
ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率ガンマ分布族のなす空間の曲率
ガンマ分布族のなす空間の曲率
 
PRML 2.3.9-2.4.1
PRML 2.3.9-2.4.1PRML 2.3.9-2.4.1
PRML 2.3.9-2.4.1
 
Introduction to Categorical Programming
Introduction to Categorical ProgrammingIntroduction to Categorical Programming
Introduction to Categorical Programming
 

More from Takuya Minagawa

Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureMachine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureTakuya Minagawa
 
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイTakuya Minagawa
 
Learning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsLearning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsTakuya Minagawa
 
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfTakuya Minagawa
 
楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事Takuya Minagawa
 
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)Takuya Minagawa
 
2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)Takuya Minagawa
 
20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representationTakuya Minagawa
 
20190307 visualslam summary
20190307 visualslam summary20190307 visualslam summary
20190307 visualslam summaryTakuya Minagawa
 
20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation surveyTakuya Minagawa
 
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentationTakuya Minagawa
 
run Keras model on opencv
run Keras model on opencvrun Keras model on opencv
run Keras model on opencvTakuya Minagawa
 
20181130 lidar object detection survey
20181130 lidar object detection survey20181130 lidar object detection survey
20181130 lidar object detection surveyTakuya Minagawa
 
object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)Takuya Minagawa
 

More from Takuya Minagawa (20)

Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureMachine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
 
MobileNeRF
MobileNeRFMobileNeRF
MobileNeRF
 
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
 
Learning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsLearning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal Problems
 
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
 
楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事
 
20210711 deepI2P
20210711 deepI2P20210711 deepI2P
20210711 deepI2P
 
20201010 personreid
20201010 personreid20201010 personreid
20201010 personreid
 
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)
 
2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)
 
20200704 bsp net
20200704 bsp net20200704 bsp net
20200704 bsp net
 
20190825 vins mono
20190825 vins mono20190825 vins mono
20190825 vins mono
 
20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation
 
20190307 visualslam summary
20190307 visualslam summary20190307 visualslam summary
20190307 visualslam summary
 
Visual slam
Visual slamVisual slam
Visual slam
 
20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey
 
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
 
run Keras model on opencv
run Keras model on opencvrun Keras model on opencv
run Keras model on opencv
 
20181130 lidar object detection survey
20181130 lidar object detection survey20181130 lidar object detection survey
20181130 lidar object detection survey
 
object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)
 

Chapter13.2.3