Submit Search
Upload
はじめてのパターン認識第八章
•
2 likes
•
442 views
Arata Honda
Follow
はじめてのパターン認識八章の8.3までの発表資料
Read less
Read more
Environment
Report
Share
Report
Share
1 of 44
Download now
Download to read offline
Recommended
機械学習
機械学習
ssuserb0e150
機械学習
StanとRでベイズ統計モデリング読書会Ch.9
StanとRでベイズ統計モデリング読書会Ch.9
考司 小杉
Osaka.stan#5 2017.07.01 at KG Univ.
画像認識で物を見分ける
画像認識で物を見分ける
Kazuaki Tanida
Pythonで動かして学ぶ機械学習入門 第二回 Jupyter Notebooks: https://goo.gl/U7bglf
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Yasutomo Kawanishi
SSII2016 チュートリアル
マーブル図で怖くないRxJS
マーブル図で怖くないRxJS
bitbank, Inc. Tokyo, Japan
Rx初心者がいきなりRxJSのコードを見ると「RxJS意味がわからない、怖い」という印象を持ちがちです(実体験)。 そんなRxJSもマーブル図でゆるく理解すれば怖くありません。 初心者向けにマーブル図を紹介します。また実際にプロダクトで実装したRxJSの活用事例を紹介します。
推薦システムを構築する手順書 with Azure Machine Learning
推薦システムを構築する手順書 with Azure Machine Learning
Masayuki Ota
この手順書は、推薦システムを構築する方法を解説しています。 手順書を通して下記のような要素技術の基礎も学べます。 ・Azure Machine Learning ・Azure Web Apps
Overview and Roadmap
Overview and Roadmap
JubatusOfficial
データマイニング勉強会3
データマイニング勉強会3
Yohei Sato
Recommended
機械学習
機械学習
ssuserb0e150
機械学習
StanとRでベイズ統計モデリング読書会Ch.9
StanとRでベイズ統計モデリング読書会Ch.9
考司 小杉
Osaka.stan#5 2017.07.01 at KG Univ.
画像認識で物を見分ける
画像認識で物を見分ける
Kazuaki Tanida
Pythonで動かして学ぶ機械学習入門 第二回 Jupyter Notebooks: https://goo.gl/U7bglf
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Yasutomo Kawanishi
SSII2016 チュートリアル
マーブル図で怖くないRxJS
マーブル図で怖くないRxJS
bitbank, Inc. Tokyo, Japan
Rx初心者がいきなりRxJSのコードを見ると「RxJS意味がわからない、怖い」という印象を持ちがちです(実体験)。 そんなRxJSもマーブル図でゆるく理解すれば怖くありません。 初心者向けにマーブル図を紹介します。また実際にプロダクトで実装したRxJSの活用事例を紹介します。
推薦システムを構築する手順書 with Azure Machine Learning
推薦システムを構築する手順書 with Azure Machine Learning
Masayuki Ota
この手順書は、推薦システムを構築する方法を解説しています。 手順書を通して下記のような要素技術の基礎も学べます。 ・Azure Machine Learning ・Azure Web Apps
Overview and Roadmap
Overview and Roadmap
JubatusOfficial
データマイニング勉強会3
データマイニング勉強会3
Yohei Sato
Rnn+lstmを理解する
Rnn+lstmを理解する
Arata Honda
エキサイトで行ったサマーインターンの説明資料
2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話
Arata Honda
excite open beerbash 特別篇 AWSを語ろう! https://connpass.com/event/143424/ の登壇内容
Config mapについて
Config mapについて
Arata Honda
Excite Lighting Talkで発表した資料
Excite beer bash06
Excite beer bash06
Arata Honda
第六回エキサイトビアバッシュの発表資料
はじめてのパターン認識第三章
はじめてのパターン認識第三章
Arata Honda
はじめてのパターン認識第三章の発表資料
Prml 3 3.3
Prml 3 3.3
Arata Honda
PRML3章の3.3までの発表資料
ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析
Arata Honda
修論発表のスライド
正則化項について
正則化項について
Arata Honda
prmlのリッジ・lassoについて
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行う
Arata Honda
Excite Open Beer Bashで発表を行った資料です。
Prml6
Prml6
Arata Honda
だいぶおざなりな発表スライドですが。
More Related Content
More from Arata Honda
Rnn+lstmを理解する
Rnn+lstmを理解する
Arata Honda
エキサイトで行ったサマーインターンの説明資料
2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話
Arata Honda
excite open beerbash 特別篇 AWSを語ろう! https://connpass.com/event/143424/ の登壇内容
Config mapについて
Config mapについて
Arata Honda
Excite Lighting Talkで発表した資料
Excite beer bash06
Excite beer bash06
Arata Honda
第六回エキサイトビアバッシュの発表資料
はじめてのパターン認識第三章
はじめてのパターン認識第三章
Arata Honda
はじめてのパターン認識第三章の発表資料
Prml 3 3.3
Prml 3 3.3
Arata Honda
PRML3章の3.3までの発表資料
ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析
Arata Honda
修論発表のスライド
正則化項について
正則化項について
Arata Honda
prmlのリッジ・lassoについて
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行う
Arata Honda
Excite Open Beer Bashで発表を行った資料です。
Prml6
Prml6
Arata Honda
だいぶおざなりな発表スライドですが。
More from Arata Honda
(10)
Rnn+lstmを理解する
Rnn+lstmを理解する
2つのサービスをAWSに移行した話
2つのサービスをAWSに移行した話
Config mapについて
Config mapについて
Excite beer bash06
Excite beer bash06
はじめてのパターン認識第三章
はじめてのパターン認識第三章
Prml 3 3.3
Prml 3 3.3
ノイズあり教師のパーセプトロン学習の統計力学的解析
ノイズあり教師のパーセプトロン学習の統計力学的解析
正則化項について
正則化項について
Scikit-learnを使って 画像分類を行う
Scikit-learnを使って 画像分類を行う
Prml6
Prml6
はじめてのパターン認識第八章
1.
はじめてのパターン認識 第八章 TS企画推進部 本田 新
2.
目次 8.1 サポートベクトルマシンの導出 8.1.1 最適識別超平面 8.1.2
KKT条件 8.2 線形分離可能でない場合への拡張 8.3 非線形特徴写像(カーネル法) 8.4 ν-サポートベクトルマシン(発表しません) 8.5 1クラスサポートベクトルマシン(発表しません)
3.
SVMに入る前に 分類(識別)問題のアプローチは三つある ● 生成モデル :
データの生成過程から考える(ベイズの定理使用) ● 識別モデル : 観測データから分類の境界線自体をモデル仮定 ● 識別関数 : 観測データの写像を考える https://www.slideshare.net/tadahirotaniguchi0624/11-46861748 生成モデル:それぞれのデータが生成さ れる分布をもとめるので、結果的にどの分 布に属しているかで分類 識別モデル:境界線になる確率分布を直 接求めに行く(仮定できる分布はなるべく 仮定する)
4.
位置づけ https://www.slideshare.net/teppeibaba5/ss-37143977
5.
SVMは識別関数 函入力x 1or -1 数式で書 くと
6.
SVMは-1, 1の分類を行う
7.
この線って最適な線なの?
8.
いっぱい引けるよね?
9.
何をもって”最適”とみなすか
10.
最適=汎化能力(未知なものにも対応できる) サポートベクタ サポート ベクタ 識別平面に最も近いベクトル (=もっとも誤 識別されやすいベクトル )と識別平面との 距離が最大(でかければでかいほど、誤 識別されにくい)になればいい
11.
突然高校数学へ P Q PQの長さは、以下の式で導かれる (計算過程は別紙で)
12.
SVMの式で置き換えてみる SVM: a → w y,b
→0 c → b -1 or 1なので1になる これがマージン (1つのサポートベクタに対する )
13.
SVM解かないといけない問題の定式化 (マージン最大化) 制約条件: の下で、 目的関数: を最小化する こういう問題を条件付最適化問題と呼ぶ
14.
ラグランジュ未定乗数法 定理(証明はしません): 前提:f(x, y), g(x,
y)で、両関数が一階微分可能で導関数 条件g(x, y)=0の下で、f(x, y)が点(a, b)において極値を持つとき、 次のいずれかが成り立つ 1:g(x, y)に関して、下記が成り立つ 2 : ある実数λにおいて、下記が成り立つ (特異点と呼ぶ) 2’: ある関数L(x, y, λ)=f(x,y)-λg(x,y) において、下記がry
15.
例題 g(x, y) =
x^2+y^2-1 = 0 の下でf(x, y)=xyの最大値・最小値を求めよ 定理の1を試す。 g_x(x, y) =2x, g_y(x, y)=2y g_x(x, y) = g_y(x, y) = 0を満たす点は(0, 0)だけど、 g(x, y)には通ってない=特異点はない 定理の2 Lx(a, b, λ) = b-2λa =0 Ly(a, b, λ) = a-2λb =0 Lx(a, b, λ) = a^2+b^2-1 =0 とくと、λ=±1/2, a=±1/√2, b=±1/√2 あとは、f(x, y)に代入して最大値・最小値を求めればいい
16.
ラグランジュ未定乗数法をさらに拡張 ラグランジュの未定乗数法は、制約条件が等式の場合の手法 不等式なので、もう少し拡張する必要がある。 g(x) = 0の場合とg(x)
< 0の場合を分けて考える 1. g(x)=0の場合: そのままラグランジュ未定乗数で解けばいい→λ>0 2. g(x) < 0 の場合にf(x)の局所がある場合は、ただ単にf(x)の最大値推定になる →λ=0 (さっきの例だと、円の中に最小値がある →点(0, 0)が最小=>f(x,y)を単に推定しているだけ) 二つの条件を合わせると、λg(x) = 0
17.
さらに拡張したんでまとめると 1. 2. 3. 4. 5. KKT条件
18.
双対問題 1. 2. 3. 4. 5. Ldを最大化するαを求める問題へシフト →双対問題
19.
あとはラグランジュ係数αを再急降下法 などで求める ここまでで、クラスが完全に線形分離可能な状態で、 マージン最大化を完全に満たすような超平面のみの適用可能な手法が ハードマージンSVMと呼ばれる(8.1)
20.
線形分離不可能の場合は? 再急降下などのアルゴリズムでは一生終わらない 識別面が構成できない! https://www.slideshare.net/AntiBayesi an/sakusaku-svm
21.
マージン最大を許す・分離失敗を許容する 厳格な制限(ハード)に対して、ソフトマージンSVM
22.
スラック変数ξ https://www.slideshare.net/moa108/ 8-28571831
23.
ソフトマージンSVM解かないといけないry 制約条件: 目的関数: メモ: https://www.slideshare.net/mknh11 22/svm-13623887
24.
C-SVMのラグランジュ未定乗数法 1. 2. 3. 4. 5. 6. 7.
25.
C-SVMのラグランジュ未定乗数法 1. 2. 3. 前回の結果 残ってる式 式3を第一項に代入したら、0になる →ハードマージンSVMと同じ式を導出した!!!( 8.2)
26.
カーネル法 ● 高次元な特徴次元に写像することで線形分離可能 ● 高次元な特徴ベクトルの計算を間接的におこなう
27.
ここから僕の昔のスライドを抜粋していきます https://www.slideshare.net/aratahonda1/prml6-84288779
28.
カーネル法の前に ● 与えられた入力変数から未知の変数を予測(回帰問題) ● 入力に非線形な処理(基底関数の導入)でモデルの表現力を上げる ●
基底関数はいろんなものがある(3章序章) ● 基底関数に対して線形なパラメータwを扱うので”線形回帰モデル”
29.
線形回帰モデルの解
30.
パラメータwが大きくなることで過学習
31.
罰則項をつけてwが大きくならないように調整
32.
リプレゼンター定理
33.
どゆこと?
34.
この定理の嬉しいところ
35.
リプレゼンター定理で最適化問題の置き換え
36.
線形回帰→カーネル回帰へ
37.
カーネルトリック
38.
カーネルトリックって何がいいの?①
39.
カーネルトリックって何がいいの?②
40.
カーネル函数の例:ガウスカーネル
41.
なんで無限次元?
42.
ほかにもあるよ、カーネル函数
43.
非線形変換すると非線形SVMの出来上がり 入力を非線形写像変換(8.3)
44.
お疲れ様でした。
Download now