SlideShare a Scribd company logo
1 of 28
Download to read offline
1
第2回「続・わかりやすいパターン認識」読書会
ぞくパタ #2
@weda_654
第3章 ベイズ決定則
2
自己紹介
TwitterID : weda_654
所属 : GoogleMapとAWSとデータ分析の会社
業務 : 前処理! 集計! 資料作成!
使用言語 : R(メイン), Python(たまに)
こんなアイコンシェル芸による前処理の修行中です
注意事項
本資料は個人の意見・認識によるものです
所属する組織の意見・認識とは無関係です
ご了承おねがいいたします
4
目次
パターン認識
事後確率最大化
事前確率の効果
ベイズ誤り確率
5
パターン認識
6
パターン認識とは
パターン認識
観測されたパターンをあらかじめ定められた複数の
概念のうち1つに対応させる処理
概念はクラス(またはカテゴリー)とよばれる
パターンは観測データと読み替えても良い
用意していたクラス
{1, 2, 3, 4, 5,
6, 7, 8, 9, 0}
パターン
手書きの数字5
照合
5
特徴ベクトル
特徴は数値(離散値・連続値)で表される
それらの数値を組にしたベクトルを特徴ベクトルと呼ぶ
x = (x1, x2, ..., xd)t (1)
7
パターン認識
健康・不健康を判定するために
体重や血糖値などd個の観測値をベクトルで表すと…
識別関数
パターン認識
クラスはc個(c 2)とし !1, ..., !c と表す
各クラスに対し識別関数gi(x) を用意し,
所属クラスが未知のパターンx を入力しクラスごとに計算する
k = arg max
i
{gi(x)} (2)
となる !k がパターン認識の結果となる
8
識別関数
パターン認識
識別関数を用いたパターン認識処理
入力x
gc(x)
gi(x)
g1(x)
識別関数
g1
gi
gc
最
大
値
選
択
機
出力
!k
クラス
図1:識別関数を用いたパターン認識処理
9
識別関数
パターン認識
特徴ベクトルx に対して重み係数とした線形識別関数
gi = wi0 +
dX
j=1
wijxj (3)(i = 1, 2, ..., c)
wi0, wi1, ..., wid重み係数:
時系列データは式(4)とあらわす
10
(4)x(n)
= x1x2...xt...xn
xt (t = 1, 2, ..., n) は時点tにおける観測結果
nは観測回数
11
事後確率最大化
事後確率最大化とは
事後確率最大化
事後確率が最も大きくなるクラスを求め判定結果とする
事後確率最大化に基づく決定方法をベイズ決定則とよぶ
12
(5)
ベイズ決定則におけるパターンは式(1)・(4)のどちらでもよい
ベイズ決定則を実現する識別関数をベイズ識別関数と呼ぶ
gi(x(n)
) = P(!i | x(n)
) (6)
!k = arg max
!i
{P(!i | x(n)
)}
例題3.1
事後確率最大化
!1 !2 !3
!i
コインの種類
コインの
含有率
表が出る
確率
!1 !2 !3
⇡3⇡2⇡1
✓1 ✓2 ✓3
表1:各コインの関する確率
• 取り出したコインをn回投げた観測結果 x(n)
= x1...xn
• コインはr回表が出る
13
• 取り出したコインの種類を判定するための識別関数を求める
例題3.1
事後確率最大化
P(!i | x(n)
) =
P(x(n)
| !i)P(!i)
P(x(n))
ベイズの定理より,観測結果が
!i
x(n) であるとき
コインが である確率は…
P(x(n)
)分母の は確率の大小比較に影響を及ぼさないため
分子のみに注目する
識別関数は…
gi(x(n)
) = P(x(n)
| !i)P(!i) = ✓r
i (1 ✓i)n r
⇡i
14
(7)
(8)
例題3.2
事後確率最大化
例題3.1に具体的な数値を当てはめる
コインの種類
コインの
含有率
0.1 0.4 0.5
表が出る
確率
0.8 0.6 0.3
!1 !2 !3
表2:各コインの関する確率
• 観測結果
15
x(10)
= HHHHTHHTHT
* H:表, T:裏
• (1) コインの種類が3つの内どれであるか決定する
• (2) 表の出る回数による判定結果の変化を示す
例題3.2
事後確率最大化
(1) コインの種類が3つの内どれであるか決定する
• 2・3 ベイズ更新の実験より
• 表(3)より事後確率が最も大きくなるコインは…
arg max
!i
{P(!i | x(10)
)} = !2
0.182 0.777 0.041
!1 !2 !3!i
P(!i | x(10)
)
表3:コインを10回投げたあとの確率
16
(9)
例題3.2
事後確率最大化
(2) 表の出る回数による判定結果の変化を示す
!1
!2!3
17
図2:観測結果と事後確率の関係
n=10
18
事前確率の効果
19
例題3.2より
事前確率の効果
試行回数nが小さい場合,事後確率は事前確率の影響を強く受ける
• 例題3.2にて表が8回出た時の確率
0.381 0.610 0.009
!1 !2 !3!i
P(!i | x(10)
)
• 例題3.2の事前確率を変更 P(!1) = P(!2) = P(!3) =
1
3
0.712 0.285 0.003
!1 !2 !3!i
P(!i | x(10)
)
20
試行回数を大きくした例
事前確率の効果
試行回数をn=100としたときの例題3.2
図3:観測結果と事後確率の関係(n=100)
!1!2!3
試行回数が大きくなったとき,
ベイズの定理を用いて事後確率
を計算する際,事前確率の影響
を無視できる
• 左図より
21
ベイズ誤り確率
22
ベイズ誤り確率とは
ベイズ誤り確率
ベイズ決定則を適用したときに発生する誤り確率
特徴の評価などに用いられる
観測結果 x(n)
= x1x2...xn における誤り確率 eB(x(n)
)
eB(x(n)
) = 1 max
i
{P(!i | x(n)
)}
= min
i
{1 P(!i | x(n)
)}
(10)
•  eB(x(n)
) を条件付きベイズ誤り確率とよぶ
* 直感的にはベイズ誤り確率はクラス間の重なり度合いを示す
23
ベイズ誤り確率とは
ベイズ誤り確率
ベイズ誤り確率はeB(x(n)
) の x(n) に関する期待値である
eb =
X
x(n)
eb(x(n)
)P(x(n)
)
=
X
x(n)
min
i
{1 P(!i | x(n)
)}P(x(n)
)
(11)
X
x(n)
•   は起こりうる全ての x(n)についての和をとることを示す
24
コイン投げの例
ベイズ誤り確率
n回のうち表の出た回数をrとしたときの確率関数
• n回投げてr回表の確率
• コイン !i でn回投げてr回表の確率
• n回投げてr回表がでるときコイン!iである確率
Pn(r)
Pn(r | !i)
Pn(!i | r)
観測結果に対してベイズ決定則を適用したときの誤り確率 eB(r)
eB(r) = min
i
{1 Pn(!i | r)} (12)
P(!i | x(n)
)  は x1x2...xn の順序には依存せず
表の出た回数のみ注目
25
コイン投げの例
ベイズ誤り確率
ベイズ誤り確率はeB(r)のrに関する期待値として求まる
eB =
nX
r=0
eB(r)Pn(r) (13)
Pn(r) =
3X
i=1
P(r | !i)P(!i)
P(r | !i) = nCr✓r
i (1 ✓i)n r
•  Pn(r) は以下のように求まる
(14)
(15)
26
コイン投げの例
ベイズ誤り確率
例題3.2に適用した結果
eb =
10X
r=0
eB(r)Pn(r) = 0.223
例題3.2にてn=100に変更し適用した結果
eb =
100X
r=0
eB(r)Pn(r) = 0.006
観測回数の増大とともにベイズ誤り確率は減少する
27
コイン投げの例
ベイズ誤り確率
観測回数の増大とともにベイズ誤り確率は減少する
図4:観測回数とベイズ誤り確率の推移
28
ご清聴ありがとうございました

More Related Content

What's hot

最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
[Tokyor08] Rによるデータサイエンス 第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス 第2部 第3章 対応分析Yohei Sato
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Keigo Nishida
 
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs Deep Learning JP
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)narumikanno0918
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 Ken'ichi Matsui
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度Seiichi Uchida
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningssuserca2822
 
[DL輪読会]Deep Neural Networks as Gaussian Processes
[DL輪読会]Deep Neural Networks as Gaussian Processes[DL輪読会]Deep Neural Networks as Gaussian Processes
[DL輪読会]Deep Neural Networks as Gaussian ProcessesDeep Learning JP
 
わかパタ 1章
わかパタ 1章わかパタ 1章
わかパタ 1章weda654
 
論文紹介「A Perspective View and Survey of Meta-Learning」
論文紹介「A Perspective View and Survey of Meta-Learning」論文紹介「A Perspective View and Survey of Meta-Learning」
論文紹介「A Perspective View and Survey of Meta-Learning」Kota Matsui
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRMLKatsuya Ito
 
論文紹介 Anomaly Detection using One-Class Neural Networks (修正版
論文紹介 Anomaly Detection using One-Class Neural Networks (修正版論文紹介 Anomaly Detection using One-Class Neural Networks (修正版
論文紹介 Anomaly Detection using One-Class Neural Networks (修正版Katsuki Ohto
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 

What's hot (20)

最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
[Tokyor08] Rによるデータサイエンス 第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス 第2部 第3章 対応分析
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
 
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
 
[DL輪読会]Deep Neural Networks as Gaussian Processes
[DL輪読会]Deep Neural Networks as Gaussian Processes[DL輪読会]Deep Neural Networks as Gaussian Processes
[DL輪読会]Deep Neural Networks as Gaussian Processes
 
わかパタ 1章
わかパタ 1章わかパタ 1章
わかパタ 1章
 
論文紹介「A Perspective View and Survey of Meta-Learning」
論文紹介「A Perspective View and Survey of Meta-Learning」論文紹介「A Perspective View and Survey of Meta-Learning」
論文紹介「A Perspective View and Survey of Meta-Learning」
 
正準相関分析
正準相関分析正準相関分析
正準相関分析
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML
 
論文紹介 Anomaly Detection using One-Class Neural Networks (修正版
論文紹介 Anomaly Detection using One-Class Neural Networks (修正版論文紹介 Anomaly Detection using One-Class Neural Networks (修正版
論文紹介 Anomaly Detection using One-Class Neural Networks (修正版
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 

続・わかりやすいパターン認識_3章