SlideShare a Scribd company logo
はじめてのパターン認識
第八章
TS企画推進部
本田 新
目次
8.1 サポートベクトルマシンの導出
 8.1.1 最適識別超平面
 8.1.2 KKT条件
8.2 線形分離可能でない場合への拡張
8.3 非線形特徴写像(カーネル法)
8.4 ν-サポートベクトルマシン(発表しません)
8.5 1クラスサポートベクトルマシン(発表しません)
SVMに入る前に
分類(識別)問題のアプローチは三つある
● 生成モデル : データの生成過程から考える(ベイズの定理使用)
● 識別モデル : 観測データから分類の境界線自体をモデル仮定
● 識別関数 : 観測データの写像を考える
https://www.slideshare.net/tadahirotaniguchi0624/11-46861748
生成モデル:それぞれのデータが生成さ
れる分布をもとめるので、結果的にどの分
布に属しているかで分類
識別モデル:境界線になる確率分布を直
接求めに行く(仮定できる分布はなるべく
仮定する)
位置づけ
https://www.slideshare.net/teppeibaba5/ss-37143977
SVMは識別関数
函入力x 1or -1
数式で書
くと
SVMは-1, 1の分類を行う
この線って最適な線なの?
いっぱい引けるよね?
何をもって”最適”とみなすか
最適=汎化能力(未知なものにも対応できる)
サポートベクタ
サポート
ベクタ
識別平面に最も近いベクトル (=もっとも誤
識別されやすいベクトル )と識別平面との
距離が最大(でかければでかいほど、誤
識別されにくい)になればいい
突然高校数学へ
P
Q
PQの長さは、以下の式で導かれる
(計算過程は別紙で)
SVMの式で置き換えてみる
SVM:
a → w
y,b →0
c → b -1 or 1なので1になる
これがマージン
(1つのサポートベクタに対する )
SVM解かないといけない問題の定式化
(マージン最大化)
制約条件: の下で、
目的関数: を最小化する
こういう問題を条件付最適化問題と呼ぶ
ラグランジュ未定乗数法
定理(証明はしません):
 前提:f(x, y), g(x, y)で、両関数が一階微分可能で導関数
 条件g(x, y)=0の下で、f(x, y)が点(a, b)において極値を持つとき、
 次のいずれかが成り立つ
1:g(x, y)に関して、下記が成り立つ 2 : ある実数λにおいて、下記が成り立つ
(特異点と呼ぶ)
                  2’: ある関数L(x, y, λ)=f(x,y)-λg(x,y)
において、下記がry
例題
g(x, y) = x^2+y^2-1 = 0 の下でf(x, y)=xyの最大値・最小値を求めよ
定理の1を試す。
g_x(x, y) =2x, g_y(x, y)=2y
g_x(x, y) = g_y(x, y) = 0を満たす点は(0, 0)だけど、
g(x, y)には通ってない=特異点はない
定理の2
Lx(a, b, λ) = b-2λa =0
Ly(a, b, λ) = a-2λb =0
Lx(a, b, λ) = a^2+b^2-1 =0
とくと、λ=±1/2, a=±1/√2, b=±1/√2
あとは、f(x, y)に代入して最大値・最小値を求めればいい
ラグランジュ未定乗数法をさらに拡張
ラグランジュの未定乗数法は、制約条件が等式の場合の手法
          不等式なので、もう少し拡張する必要がある。
g(x) = 0の場合とg(x) < 0の場合を分けて考える
1. g(x)=0の場合:
そのままラグランジュ未定乗数で解けばいい→λ>0
2. g(x) < 0 の場合にf(x)の局所がある場合は、ただ単にf(x)の最大値推定になる
→λ=0  (さっきの例だと、円の中に最小値がある
      →点(0, 0)が最小=>f(x,y)を単に推定しているだけ)
二つの条件を合わせると、λg(x) = 0
さらに拡張したんでまとめると
1.
2.
3.
4.
5.
KKT条件
双対問題
1.
2.
3.
4.
5.
Ldを最大化するαを求める問題へシフト
→双対問題
あとはラグランジュ係数αを再急降下法
などで求める
ここまでで、クラスが完全に線形分離可能な状態で、
マージン最大化を完全に満たすような超平面のみの適用可能な手法が
ハードマージンSVMと呼ばれる(8.1)
線形分離不可能の場合は?
再急降下などのアルゴリズムでは一生終わらない
識別面が構成できない! https://www.slideshare.net/AntiBayesi
an/sakusaku-svm
マージン最大を許す・分離失敗を許容する
厳格な制限(ハード)に対して、ソフトマージンSVM
スラック変数ξ
https://www.slideshare.net/moa108/
8-28571831
ソフトマージンSVM解かないといけないry
制約条件:
目的関数:
メモ:
https://www.slideshare.net/mknh11
22/svm-13623887
C-SVMのラグランジュ未定乗数法
1.
2.
3.
4.
5.
6.
7.
C-SVMのラグランジュ未定乗数法
1.
2.
3.
前回の結果
残ってる式
式3を第一項に代入したら、0になる
→ハードマージンSVMと同じ式を導出した!!!( 8.2)
カーネル法
● 高次元な特徴次元に写像することで線形分離可能
● 高次元な特徴ベクトルの計算を間接的におこなう
ここから僕の昔のスライドを抜粋していきます
https://www.slideshare.net/aratahonda1/prml6-84288779
カーネル法の前に
● 与えられた入力変数から未知の変数を予測(回帰問題)
● 入力に非線形な処理(基底関数の導入)でモデルの表現力を上げる
● 基底関数はいろんなものがある(3章序章)
● 基底関数に対して線形なパラメータwを扱うので”線形回帰モデル”
線形回帰モデルの解
パラメータwが大きくなることで過学習
罰則項をつけてwが大きくならないように調整
リプレゼンター定理
どゆこと?
この定理の嬉しいところ
リプレゼンター定理で最適化問題の置き換え
線形回帰→カーネル回帰へ
カーネルトリック
カーネルトリックって何がいいの?①
カーネルトリックって何がいいの?②
カーネル函数の例:ガウスカーネル
なんで無限次元?
ほかにもあるよ、カーネル函数
非線形変換すると非線形SVMの出来上がり
入力を非線形写像変換(8.3)
お疲れ様でした。

More Related Content

More from Arata Honda

Rnn+lstmを理解する
Rnn+lstmを理解するRnn+lstmを理解する
Rnn+lstmを理解する
Arata Honda
 
2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話
Arata Honda
 
Config mapについて
Config mapについてConfig mapについて
Config mapについて
Arata Honda
 
Excite beer bash06
Excite beer bash06Excite beer bash06
Excite beer bash06
Arata Honda
 
はじめてのパターン認識第三章
はじめてのパターン認識第三章はじめてのパターン認識第三章
はじめてのパターン認識第三章
Arata Honda
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
Arata Honda
 
ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析
Arata Honda
 
正則化項について
正則化項について正則化項について
正則化項について
Arata Honda
 
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行うScikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行う
Arata Honda
 
Prml6
Prml6Prml6

More from Arata Honda (10)

Rnn+lstmを理解する
Rnn+lstmを理解するRnn+lstmを理解する
Rnn+lstmを理解する
 
2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話
 
Config mapについて
Config mapについてConfig mapについて
Config mapについて
 
Excite beer bash06
Excite beer bash06Excite beer bash06
Excite beer bash06
 
はじめてのパターン認識第三章
はじめてのパターン認識第三章はじめてのパターン認識第三章
はじめてのパターン認識第三章
 
Prml 3 3.3
Prml 3 3.3Prml 3 3.3
Prml 3 3.3
 
ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析
 
正則化項について
正則化項について正則化項について
正則化項について
 
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行うScikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行う
 
Prml6
Prml6Prml6
Prml6
 

はじめてのパターン認識第八章