SlideShare a Scribd company logo
1 of 15
Download to read offline
1 3 .2 隠れマルコフモデル
 (Hidden Markov Model)

                2010/7/17
                 showyou
お詫び



1 3 .2 .1 も行う予定でしたが、1 3 .2 .1 を実装する
      には1 3 .2 .2 を理解しないとできないの
         で、nokunoさんにお願いしました
自己紹介
●   Hatena, Twitter: showyou
●
    ソフトウェアエンジニア(Webではない)
●   Python, C++。Javaは読めるけどほとんど書けない
●
    大学院では視線認識と手指認識を使ってテレビ
    の画面を操作する研究をしていた
    ●
        アプリケーション中心、認識部分は触れず
●
    Twitterで人工無脳作ってます(ha_ma, donsuke,
    yuka_)
隠れマルコフモデル(H M M )とは
下の図に示される状態空間モデルにおいて、潜在変数が離散な例
簡単にいうと 
隠れ変数のマルコフ連鎖
一つの時刻について見ると、成分密度分布が過去の観測で選択された
成分に依存して選択されるように、混合分布モデルを拡張したもの
 音声認識
 自然言語モデル
 オンライン手書き文字認識
 タンパク質やD N A などの生物学的配列の解析
などに広く用いられている
HMMの性質
●
    潜在変数は離散的な多項変数
    zn は [ 1, 0, 0, .. ]のような形をとる
●   p(zn)は直前の潜在変数p(zn-1)に依存
●
    潜在変数の条件付き分布は以下の形にかける
                            K       K

         p  z n∣z n−1 , A=∏ ∏ A
                                        z n−1, j z nk
                                        jk              −13.7
                            k=1 j=1

     A:遷移行列を要素に持つ数表
       Aj kはp(znk = 1|zn-1,j = 1)
     0≦Ajk ≦ 1, ΣkAjk=1
     A はK (K -1 )個の独立なパラメータ
●
    最初の潜在ノードz_1 だけ親ノードを持たず特
    別である
●   Πk = p(z1k=1)を持つ確率のベクトルπ で表され
    る周辺分布p(z1)を持つ
                   K
          p  z 1∣=∏  −13.8
                         z1k
                         k
                  k =1

    ただしΣk πk=1
遷移行列を自分なりに書いてみた
                                            Akj = p(znk = 1| zn-1,j =1)
                                            A31 = p(zn3| zn-1,1)

                                            j=3, k=1しか発生しない場合、


                                                 [                 ]
                                                   0 0 p  z n3∣z n−1,1
                                               A= 0 0          0
                                                   0 0         0
zn-1 = [ 0, 0, 1 ]^T   zn = [ 1, 0, 0 ]^T       横が現在取ってる状態
                                                縦が前とってる状態
                                                表Aは状態間の遷移確率を表している
●
    遷移行列はノードを状態とする状態遷移図(下
    左)で表されることもある
    ●
        ただしこの図は複数の変数ではなく、一つの変数
        の状態を表している
●
    状態遷移図を時間方向に展開すると格子図(ト
    レリス図, 下右)となる
観測変数p(xn|zn,Φ)の定義
                           K

            p  x n∣z n , =∏ p  x n∣k  −13.9
                                         z nk

                          k =1


●
    Φ:分布を支配するパラメータの集合
●   p(xn|zn,Φ)は出力確率と呼ばれるK
                           p x n∣z n , = ∏ N  x n∣k ,  k 
                                                                   z nk
    ●   xが連続:(9.11)式
                                                k =1

        xが離散:条件付き確率表 で与えられる
均一なモデルについて考えてみる
●
     均一なモデル=
     ●
         潜在変数を支配する
         全ての条件付き分布が
         同じパラメータA を共有
     ●
         全ての出力分布が同一のパラメータΦ を共有

●
     このときの潜在変数と観測変数の同時分布
                              N                     N

    p  X , Z∣= p  z 1∣[ ∏ p  z n∣z n−1 , A] ∏ p  x m∣z m , 
                             n=2                   m=1
                               −13.10 
生成モデルから見たH M M
混合ガウス分布                    HMM

π1        π2               z1=j        z2=1
               z1=1
                      πk
               z1=2                    z2=2




                      z1          z2


                      x1          x2


     x1
生成モデルから見たHMM
left-to-rig ht H M M
●
    A のk<jとなるA _jkが0
    のH M M
●   多くの場合状態j=1から
    始まる
●   k>j+ΔならA_jk=0にな
    る(大きな変化を避け
    る)
left-rig htの例:オンライン手書き文字
●
    数字2 の画像が4 5 個
●
    K = 1 6 , 1 6 種類の角度に対
    応
●
    出力は角度と決まった長さ
    を持つ線分
●
    出力分布は状態に角度を関
    連付けた1 6 x1 6 の表
●
    同じ状態か+ 1 になる遷移
    以外は遷移確率が0
H M M の特徴
時間軸上での局所的な伸縮に対して、ある程度
まで普遍性を保つ
●
    オンライン手書き文字:形状(尖点・輪の位置)
●
    音声認識:発生速度の自然なゆらぎ

More Related Content

What's hot

PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 
制限ボルツマンマシン入門
制限ボルツマンマシン入門制限ボルツマンマシン入門
制限ボルツマンマシン入門佑馬 斎藤
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
概要と具体例で学ぶHMM(隠れマルコフモデル)
概要と具体例で学ぶHMM(隠れマルコフモデル)概要と具体例で学ぶHMM(隠れマルコフモデル)
概要と具体例で学ぶHMM(隠れマルコフモデル)thinkn1108
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門Miyoshi Yuya
 
PRML輪読#9
PRML輪読#9PRML輪読#9
PRML輪読#9matsuolab
 
レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成Nagi Teramo
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)Yoshitake Takebayashi
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6Kohei Tomita
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理するHiroshi Shimizu
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法Ken'ichi Matsui
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11matsuolab
 
マルコフ連鎖モンテカルロ法
マルコフ連鎖モンテカルロ法マルコフ連鎖モンテカルロ法
マルコフ連鎖モンテカルロ法Masafumi Enomoto
 
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするためにベイズモデリングと仲良くするために
ベイズモデリングと仲良くするためにShushi Namba
 

What's hot (20)

PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
制限ボルツマンマシン入門
制限ボルツマンマシン入門制限ボルツマンマシン入門
制限ボルツマンマシン入門
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
概要と具体例で学ぶHMM(隠れマルコフモデル)
概要と具体例で学ぶHMM(隠れマルコフモデル)概要と具体例で学ぶHMM(隠れマルコフモデル)
概要と具体例で学ぶHMM(隠れマルコフモデル)
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
PRML輪読#9
PRML輪読#9PRML輪読#9
PRML輪読#9
 
レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
Prml
PrmlPrml
Prml
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
PRML11章
PRML11章PRML11章
PRML11章
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
マルコフ連鎖モンテカルロ法
マルコフ連鎖モンテカルロ法マルコフ連鎖モンテカルロ法
マルコフ連鎖モンテカルロ法
 
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするためにベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
 

Similar to 13.2 隠れマルコフモデル

8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論sleepy_yoshi
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Wataru Kishimoto
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタToshihisa Tanaka
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filterSatoshi Minakuchi
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布t2tarumi
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析Mika Yoshimura
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Taiji Suzuki
 
複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフ複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフShintaro Takemura
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notationKenta Oono
 
グラフカットによる画像背景切り取り
グラフカットによる画像背景切り取りグラフカットによる画像背景切り取り
グラフカットによる画像背景切り取りcoil_kpc
 

Similar to 13.2 隠れマルコフモデル (20)

8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
Chapter9 2
Chapter9 2Chapter9 2
Chapter9 2
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
 
PRML 8.4-8.4.3
PRML 8.4-8.4.3 PRML 8.4-8.4.3
PRML 8.4-8.4.3
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタ
 
Introduction to the particle filter
Introduction to the particle filterIntroduction to the particle filter
Introduction to the particle filter
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
 
Chapter11.2
Chapter11.2Chapter11.2
Chapter11.2
 
複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフ複雑ネットワーク 第4章 古典的なグラフ
複雑ネットワーク 第4章 古典的なグラフ
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notation
 
グラフカットによる画像背景切り取り
グラフカットによる画像背景切り取りグラフカットによる画像背景切り取り
グラフカットによる画像背景切り取り
 

More from show you

Iaas, paasと利用者
Iaas, paasと利用者Iaas, paasと利用者
Iaas, paasと利用者show you
 
Classification of Visualize Tool
Classification of Visualize ToolClassification of Visualize Tool
Classification of Visualize Toolshow you
 
An introduction of hue
An introduction of hueAn introduction of hue
An introduction of hueshow you
 
A survey of 2013 data science salary survey”
A survey of   2013 data science salary survey”A survey of   2013 data science salary survey”
A survey of 2013 data science salary survey”show you
 
二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについて二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについてshow you
 
Pycon tw 2013
Pycon tw 2013Pycon tw 2013
Pycon tw 2013show you
 
Mobageのhadoop活用環境と適用方法
Mobageのhadoop活用環境と適用方法Mobageのhadoop活用環境と適用方法
Mobageのhadoop活用環境と適用方法show you
 
aisatsu suruto tomodachiga popopoponnto hueruyo
aisatsu suruto tomodachiga popopoponnto hueruyoaisatsu suruto tomodachiga popopoponnto hueruyo
aisatsu suruto tomodachiga popopoponnto hueruyoshow you
 
plot beta dist
plot beta distplot beta dist
plot beta distshow you
 
SIG-WI2 twitterにおける、人工無脳との インタラクション
SIG-WI2 twitterにおける、人工無脳との インタラクションSIG-WI2 twitterにおける、人工無脳との インタラクション
SIG-WI2 twitterにおける、人工無脳との インタラクションshow you
 

More from show you (12)

Iaas, paasと利用者
Iaas, paasと利用者Iaas, paasと利用者
Iaas, paasと利用者
 
Classification of Visualize Tool
Classification of Visualize ToolClassification of Visualize Tool
Classification of Visualize Tool
 
An introduction of hue
An introduction of hueAn introduction of hue
An introduction of hue
 
A survey of 2013 data science salary survey”
A survey of   2013 data science salary survey”A survey of   2013 data science salary survey”
A survey of 2013 data science salary survey”
 
二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについて二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについて
 
Pycon tw 2013
Pycon tw 2013Pycon tw 2013
Pycon tw 2013
 
Mobageのhadoop活用環境と適用方法
Mobageのhadoop活用環境と適用方法Mobageのhadoop活用環境と適用方法
Mobageのhadoop活用環境と適用方法
 
aisatsu suruto tomodachiga popopoponnto hueruyo
aisatsu suruto tomodachiga popopoponnto hueruyoaisatsu suruto tomodachiga popopoponnto hueruyo
aisatsu suruto tomodachiga popopoponnto hueruyo
 
Yuka
YukaYuka
Yuka
 
3.4
3.43.4
3.4
 
plot beta dist
plot beta distplot beta dist
plot beta dist
 
SIG-WI2 twitterにおける、人工無脳との インタラクション
SIG-WI2 twitterにおける、人工無脳との インタラクションSIG-WI2 twitterにおける、人工無脳との インタラクション
SIG-WI2 twitterにおける、人工無脳との インタラクション
 

13.2 隠れマルコフモデル

  • 1. 1 3 .2 隠れマルコフモデル (Hidden Markov Model) 2010/7/17 showyou
  • 2. お詫び 1 3 .2 .1 も行う予定でしたが、1 3 .2 .1 を実装する には1 3 .2 .2 を理解しないとできないの で、nokunoさんにお願いしました
  • 3. 自己紹介 ● Hatena, Twitter: showyou ● ソフトウェアエンジニア(Webではない) ● Python, C++。Javaは読めるけどほとんど書けない ● 大学院では視線認識と手指認識を使ってテレビ の画面を操作する研究をしていた ● アプリケーション中心、認識部分は触れず ● Twitterで人工無脳作ってます(ha_ma, donsuke, yuka_)
  • 4. 隠れマルコフモデル(H M M )とは 下の図に示される状態空間モデルにおいて、潜在変数が離散な例 簡単にいうと  隠れ変数のマルコフ連鎖 一つの時刻について見ると、成分密度分布が過去の観測で選択された 成分に依存して選択されるように、混合分布モデルを拡張したもの  音声認識  自然言語モデル  オンライン手書き文字認識  タンパク質やD N A などの生物学的配列の解析 などに広く用いられている
  • 5. HMMの性質 ● 潜在変数は離散的な多項変数 zn は [ 1, 0, 0, .. ]のような形をとる ● p(zn)は直前の潜在変数p(zn-1)に依存 ● 潜在変数の条件付き分布は以下の形にかける K K p  z n∣z n−1 , A=∏ ∏ A z n−1, j z nk jk −13.7 k=1 j=1 A:遷移行列を要素に持つ数表 Aj kはp(znk = 1|zn-1,j = 1) 0≦Ajk ≦ 1, ΣkAjk=1 A はK (K -1 )個の独立なパラメータ
  • 6. 最初の潜在ノードz_1 だけ親ノードを持たず特 別である ● Πk = p(z1k=1)を持つ確率のベクトルπ で表され る周辺分布p(z1)を持つ K p  z 1∣=∏  −13.8 z1k k k =1 ただしΣk πk=1
  • 7. 遷移行列を自分なりに書いてみた Akj = p(znk = 1| zn-1,j =1) A31 = p(zn3| zn-1,1) j=3, k=1しか発生しない場合、 [ ] 0 0 p  z n3∣z n−1,1 A= 0 0 0 0 0 0 zn-1 = [ 0, 0, 1 ]^T zn = [ 1, 0, 0 ]^T 横が現在取ってる状態 縦が前とってる状態 表Aは状態間の遷移確率を表している
  • 8. 遷移行列はノードを状態とする状態遷移図(下 左)で表されることもある ● ただしこの図は複数の変数ではなく、一つの変数 の状態を表している ● 状態遷移図を時間方向に展開すると格子図(ト レリス図, 下右)となる
  • 9. 観測変数p(xn|zn,Φ)の定義 K p  x n∣z n , =∏ p  x n∣k  −13.9 z nk k =1 ● Φ:分布を支配するパラメータの集合 ● p(xn|zn,Φ)は出力確率と呼ばれるK p x n∣z n , = ∏ N  x n∣k ,  k  z nk ● xが連続:(9.11)式 k =1 xが離散:条件付き確率表 で与えられる
  • 10. 均一なモデルについて考えてみる ● 均一なモデル= ● 潜在変数を支配する 全ての条件付き分布が 同じパラメータA を共有 ● 全ての出力分布が同一のパラメータΦ を共有 ● このときの潜在変数と観測変数の同時分布 N N p  X , Z∣= p  z 1∣[ ∏ p  z n∣z n−1 , A] ∏ p  x m∣z m ,  n=2 m=1 −13.10 
  • 11. 生成モデルから見たH M M 混合ガウス分布 HMM π1 π2 z1=j z2=1 z1=1 πk z1=2 z2=2 z1 z2 x1 x2 x1
  • 13. left-to-rig ht H M M ● A のk<jとなるA _jkが0 のH M M ● 多くの場合状態j=1から 始まる ● k>j+ΔならA_jk=0にな る(大きな変化を避け る)
  • 14. left-rig htの例:オンライン手書き文字 ● 数字2 の画像が4 5 個 ● K = 1 6 , 1 6 種類の角度に対 応 ● 出力は角度と決まった長さ を持つ線分 ● 出力分布は状態に角度を関 連付けた1 6 x1 6 の表 ● 同じ状態か+ 1 になる遷移 以外は遷移確率が0
  • 15. H M M の特徴 時間軸上での局所的な伸縮に対して、ある程度 まで普遍性を保つ ● オンライン手書き文字:形状(尖点・輪の位置) ● 音声認識:発生速度の自然なゆらぎ