4. 決定理論 例
例 : X線画像から、癌かどうかを判定
出力 t : 0
1
t
t
=
=
入力 x : X線画像
癌あり(クラスC1)
癌なし(クラスC2)
同時分布 p(x,t) (= p(x,Ck)) を決める … 推論
最終的に患者に治療をするかどうかを決めなければならない … 決定
4
5. 決定理論 例
例 : X線画像から、癌かどうかを判定
出力 t : 0
1
t
t
=
=
入力 x : X線画像
癌あり(クラスC1)
癌なし(クラスC2)
( ) ( )
( | )
( )
k k
k
p C p C
p C
p
=
x |
x
x
新たなX線画像が与えられた条件下で各クラスの確率が知りたい
ベイズの定理に現れる量は
すべて同時分布から求めることができる
事前確率
X線画像を得る前に人が癌である確率
X線画像を得る前に人が癌でない確率
5
8. 1 2
1 2 2 1
2 1
(mistake) ( , ) ( , )
( , ) d ( , ) d
R R
p p R C p R C
p C p C
= Î + Î
= +ò ò
x x
x x x x
1.5.1 誤識別率
クラス に属する入力を,
クラス に割り当てる確率
クラス に属する入力を,
クラス に割り当てる確率
1C
2C
2C
1C
8
9. 1.5.1 誤識別率の最小化
1 2
1 2 2 1
2 1
(mistake) ( , ) ( , )
( , ) d ( , ) d
R R
p p R C p R C
p C p C
= Î + Î
= +ò ò
x x
x x x x
誤識別率を最小化するには
1 2( , ) ( , )p C p C<x x
1 2( , ) ( , )p C p C>x x … クラス
… クラス
1C
2C
に割り当てる
乗法定理 より( , ) ( | ) ( )k kp C p C p=x x x
誤識別率を最小化するには
1 2( | ) ( | )p C p C<x x
1 2( | ) ( | )p C p C>x x … クラス
… クラス
1C
2C
に割り当てるように Rk を設定
9
10. 1.5.1 誤識別率の最小化
1
1
(correct) ( , )
( , ) d
k
K
k k
k
K
kR
k
p p R C
p C
=
=
= Î
=
å
åò
x
x x
より一般のKクラスの場合は,正解の確率を最大化するほうが少し優しい.
1 2
1 2(correct) ( , ) d ( , ) d
R R
p p C p C= +ò òx x x x
1 2
2 1(mistake) ( , ) d ( , ) d
R R
p p C p C= +ò òx x x x
10
13. 1.5.2 期待損失を最小化
[ ] ( , ) d
j
kj kR
k j
L L p C= ååò x xE[期待損失
損失関数を最小化する代わりに,期待損失(損失の平均)を最小化
目標:期待損失が最小になるように決定領域 Rk を選ぶ
( | ) ( )kp C px x
arg min ( | )kj k
j
k
L p Cå x決定規則: に割り当てる
13
20. (a) 事後確率 を直接求め,決定理論を用いてクラスを割り当てる.( | )kp C x
1.5.4 (b)識別モデル
識別モデル
事後確率を直接モデル化するアプローチ
利点
- 生成モデルに比べて,計算が少ない. - 分類だけが目的なら効率的.
クラス条件付き分布は
事後確率に影響しないこともある.
( | ) ( )
( | )
( )
k k
k
p C p C
p C
p
=
x
x
x
21
27. 1.5.5 回帰のための損失関数,期待損失
x … 入力
y(x) … t の値に対する特定の推定値
L(t, y(x)) … 損失関数(二乗誤差がよく使われる)
2
[ ] ( , ( )) ( , )d d
{ ( ) } ( , )d d
L L t y p t t
y t p t t
=
= -
òò
òò
x x x
x x x
E期待損失
目標:期待損失を最小にする y(x) を求めること
期待損失 … 汎関数
推定値 y(x) … 関数
=> 変分法
28
28. 回帰関数
… x が与えられた下での t の条件付き平均
1.5.5 期待損失の最小化(変分法)
(
[ ]
2 { ( ) } (
)
, )d 0
L
y t p t
y
t
d
d
= - =ò x x
x
E
( ) ( , )d [ | ]ty tp t t t= =òx x xE
Additional notes here.
29
29. 2
[ ] { ( ) [ | ]} ( )d var[ | ] ( )dL y t p t p= - +ò òx x x x x x xE E
1.5.5 回帰関数
2 2
2 2
{ ( ) } { ( ) [ | ] [ | ] }
{ ( ) [ | ]} 2{ ( ) [ | ]}{ [ | ] } { [ | ] }
y t y t t t
y t y t t t t t
- = - + -
= - + - - + -
x x x x
x x x x x x
E E
E E E E
損失関数に代入し,t で積分すると,
目標データが本質的に持つ変動(ノイズ)
( ) [ | ]y t=x xE のとき最小 t の分布の分散を
x に関して平均したもの
30
30. 1.5.5 回帰問題のアプローチ
(a) 同時分布 を求める.条件付き密度 を求めるため規格化し,
条件付き平均を求める.
(b) 条件付き密度 を求め,条件付き平均を求める.
(c) 回帰関数を直接データから計算する.
( , )p tx ( | )p t x
( | )p t x
31
31. 1.5.5 ミンコフスキー損失
[ ] ( ) ( , )d d
q
qL y t p t t= -òò x x xE期待値
ミンコフスキー損失 … 二乗誤差の一般形 ( , ( )) ( )
q
qL t y y t= -x x
32