Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Prunus 1350
5,569 views
はじめてのパターン認識 第9章 9.5-9.6
第12回 「はじめてのパターン認識」 読書会
Education
◦
Read more
8
Save
Share
Embed
Embed presentation
Download
Downloaded 78 times
1
/ 15
2
/ 15
3
/ 15
4
/ 15
5
/ 15
6
/ 15
7
/ 15
8
/ 15
9
/ 15
10
/ 15
11
/ 15
12
/ 15
13
/ 15
14
/ 15
15
/ 15
More Related Content
PDF
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
by
Motoya Wakiyama
PDF
[PRML] パターン認識と機械学習(第1章:序論)
by
Ryosuke Sasaki
PDF
20130716 はじパタ3章前半 ベイズの識別規則
by
koba cky
PPTX
距離とクラスタリング
by
大貴 末廣
PPTX
Python基礎その2
by
大貴 末廣
PDF
はじめてのパターン認識 第8章 サポートベクトルマシン
by
Motoya Wakiyama
PDF
はじパタ6章前半
by
T T
PDF
わかりやすいパターン認識_2章
by
weda654
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
by
Motoya Wakiyama
[PRML] パターン認識と機械学習(第1章:序論)
by
Ryosuke Sasaki
20130716 はじパタ3章前半 ベイズの識別規則
by
koba cky
距離とクラスタリング
by
大貴 末廣
Python基礎その2
by
大貴 末廣
はじめてのパターン認識 第8章 サポートベクトルマシン
by
Motoya Wakiyama
はじパタ6章前半
by
T T
わかりやすいパターン認識_2章
by
weda654
What's hot
PDF
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
by
Hiroshi Nakagawa
PDF
関数データ解析の概要とその方法
by
Hidetoshi Matsui
PDF
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
by
Ken'ichi Matsui
PDF
深層学習と確率プログラミングを融合したEdwardについて
by
ryosuke-kojima
PDF
はじめてのパターン認識 第6章 後半
by
Prunus 1350
PDF
はじパタ8章 svm
by
tetsuro ito
PDF
解説#78 誤差逆伝播
by
Ruo Ando
PDF
はじぱた7章F5up
by
Tyee Z
PDF
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
by
Kenyu Uehara
PPTX
ベイズ最適化によるハイパラーパラメータ探索
by
西岡 賢一郎
PDF
[DL輪読会]Deep Learning 第5章 機械学習の基礎
by
Deep Learning JP
PDF
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
by
Ken'ichi Matsui
PDF
スペクトラル・クラスタリング
by
Akira Miyazawa
PPTX
PRMLrevenge_3.3
by
Naoya Nakamura
PDF
PRML輪読#1
by
matsuolab
PDF
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
PDF
深層学習 第6章
by
KCS Keio Computer Society
PDF
PRML輪読#2
by
matsuolab
PPTX
ggplot2再入門(2015年バージョン)
by
yutannihilation
PDF
EMアルゴリズム
by
Sotetsu KOYAMADA(小山田創哲)
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
by
Hiroshi Nakagawa
関数データ解析の概要とその方法
by
Hidetoshi Matsui
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
by
Ken'ichi Matsui
深層学習と確率プログラミングを融合したEdwardについて
by
ryosuke-kojima
はじめてのパターン認識 第6章 後半
by
Prunus 1350
はじパタ8章 svm
by
tetsuro ito
解説#78 誤差逆伝播
by
Ruo Ando
はじぱた7章F5up
by
Tyee Z
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
by
Kenyu Uehara
ベイズ最適化によるハイパラーパラメータ探索
by
西岡 賢一郎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
by
Deep Learning JP
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
by
Ken'ichi Matsui
スペクトラル・クラスタリング
by
Akira Miyazawa
PRMLrevenge_3.3
by
Naoya Nakamura
PRML輪読#1
by
matsuolab
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
深層学習 第6章
by
KCS Keio Computer Society
PRML輪読#2
by
matsuolab
ggplot2再入門(2015年バージョン)
by
yutannihilation
EMアルゴリズム
by
Sotetsu KOYAMADA(小山田創哲)
Similar to はじめてのパターン認識 第9章 9.5-9.6
PPTX
PRML第6章「カーネル法」
by
Keisuke Sugawara
PDF
PRML 第4章
by
Akira Miyazawa
PDF
パターン認識と機械学習6章(カーネル法)
by
Yukara Ikemiya
PDF
Fisher Vectorによる画像認識
by
Takao Yamanaka
PDF
PRML輪読#7
by
matsuolab
PDF
主成分分析
by
貴之 八木
PDF
異常検知と変化検知 9章 部分空間法による変化点検知
by
hagino 3000
PDF
ガイデットフィルタとその周辺
by
Norishige Fukushima
PDF
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
by
Morpho, Inc.
PDF
TokyoR 第36回LT Rで部分空間法
by
Prunus 1350
PDF
データマイニング勉強会3
by
Yohei Sato
PDF
Infomation geometry(overview)
by
Yoshitake Misaki
PDF
はじパタLT2
by
Tadayuki Onishi
PPTX
画像認識4
by
Hiroaki Hata
PDF
Cvim tutorial2 03_06_wk77_110220-0546
by
Wataru Kishimoto
PDF
PRML2.3.8~2.5 Slides in charge
by
Junpei Matsuda
PDF
Introduction to ensemble methods for beginners
by
Shinsaku Kono
PPTX
線形識別によるパターン認識
by
理玖 川崎
PDF
Grl44 hotta
by
Seiji Hotta
PDF
20160717 dikf
by
Takuya Minagawa
PRML第6章「カーネル法」
by
Keisuke Sugawara
PRML 第4章
by
Akira Miyazawa
パターン認識と機械学習6章(カーネル法)
by
Yukara Ikemiya
Fisher Vectorによる画像認識
by
Takao Yamanaka
PRML輪読#7
by
matsuolab
主成分分析
by
貴之 八木
異常検知と変化検知 9章 部分空間法による変化点検知
by
hagino 3000
ガイデットフィルタとその周辺
by
Norishige Fukushima
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
by
Morpho, Inc.
TokyoR 第36回LT Rで部分空間法
by
Prunus 1350
データマイニング勉強会3
by
Yohei Sato
Infomation geometry(overview)
by
Yoshitake Misaki
はじパタLT2
by
Tadayuki Onishi
画像認識4
by
Hiroaki Hata
Cvim tutorial2 03_06_wk77_110220-0546
by
Wataru Kishimoto
PRML2.3.8~2.5 Slides in charge
by
Junpei Matsuda
Introduction to ensemble methods for beginners
by
Shinsaku Kono
線形識別によるパターン認識
by
理玖 川崎
Grl44 hotta
by
Seiji Hotta
20160717 dikf
by
Takuya Minagawa
More from Prunus 1350
PDF
はじめてのパターン認識 第1章
by
Prunus 1350
PDF
パターン認識と機械学習 §6.2 カーネル関数の構成
by
Prunus 1350
PDF
はじめてのパターン認識 第11章 11.1-11.2
by
Prunus 1350
PDF
統計的学習の基礎 第2章後半
by
Prunus 1350
PDF
パターン認識と機械学習 §8.3.4 有向グラフとの関係
by
Prunus 1350
PDF
Rで学ぶデータマイニングI 第8章〜第13章
by
Prunus 1350
KEY
第5章 統計的仮説検定 (Rによるやさしい統計学)
by
Prunus 1350
KEY
集合知プログラミング 第4章 4.7
by
Prunus 1350
PDF
SAS University EditionでもJupyter Notebookが使えるようになった話
by
Prunus 1350
KEY
スティーヴ・ライヒを聴こう
by
Prunus 1350
はじめてのパターン認識 第1章
by
Prunus 1350
パターン認識と機械学習 §6.2 カーネル関数の構成
by
Prunus 1350
はじめてのパターン認識 第11章 11.1-11.2
by
Prunus 1350
統計的学習の基礎 第2章後半
by
Prunus 1350
パターン認識と機械学習 §8.3.4 有向グラフとの関係
by
Prunus 1350
Rで学ぶデータマイニングI 第8章〜第13章
by
Prunus 1350
第5章 統計的仮説検定 (Rによるやさしい統計学)
by
Prunus 1350
集合知プログラミング 第4章 4.7
by
Prunus 1350
SAS University EditionでもJupyter Notebookが使えるようになった話
by
Prunus 1350
スティーヴ・ライヒを聴こう
by
Prunus 1350
はじめてのパターン認識 第9章 9.5-9.6
1.
第12回「はじめてのパターン認識」読書会 9.5 カーネル主成分分析 9.6 カーネル部分空間法 2014/2/18(火) @Prunus1350
2.
9.5 カーネル主成分分析
3.
9.5 カーネル主成分分析 • 学習データ 𝒙
𝑖 ∈ ℛ 𝑑 (𝑖 = 1, ⋯ , 𝑁) を入力空間より次元の大きな 𝑀 次元 非線形特徴空間に写像して、そこで主成分分析を行う。 • うまく非線形写像 𝝋 を選べば、識別能力が上がる。(かもしれない) • もし、「非線形特徴ベクトルの平均が 1 𝑪= 𝑁 𝟎 」ならば、共分散行列は 𝑁 𝝋(𝒙 𝑖 ) 𝝋(𝒙 𝑖 ) 𝑇 𝑖=1 となり、固有値問題を解けば非線形特徴空間の固有値と固有ベクト ルが求まり、入力空間で行ったのと同様の方法で主成分分析ができ る。
4.
9.5 カーネル主成分分析 • 問題点 • 非線形特徴変換を行っているので、非線形特徴ベクトルの平均が
𝟎 になること 1 𝑁 𝑁 𝝋(𝒙 𝑖 ) = 𝟎 𝑖=1 が保証されない。 ⇒ 各特徴ベクトル 𝝋(𝒙 𝑖 ) から平均ベクトルを引いてしまえば中心化できる。 𝝋 𝒙𝑖 = 𝝋 𝒙𝑖 − • 1 𝑁 𝑁 𝝋(𝒙 𝑗 ) 𝑗=1 高次元での計算は大変。 ⇒ カーネル法を用いることにより 𝑑 次元空間での計算で、高次元非線形特徴 空間における主成分を得ることができる。 (非線形特徴変換後に中心化してもカーネルトリックは使える?)
5.
9.5 カーネル主成分分析 • 平均を • 𝟎
にした 𝑁 × 𝑁 グラム行列 𝑲 𝑿, 𝑿 の 𝑛, 𝑘 要素は、 𝐾 𝒙 𝑛, 𝒙 𝑘 = 𝝋 𝒙 𝑛 = = 𝑇 𝝋 𝒙𝑘 𝝋 𝒙𝑛 − 𝑇 𝝋 𝒙𝑛 = 𝝋 𝒙𝑛 = 𝝋 𝒙𝑛 𝑇 𝑇 1 𝑁 − 𝝋(𝒙 𝑗 ) 𝝋 𝒙𝑘 − 𝑗=1 1 𝑁 𝝋 𝒙𝑘 𝝋 𝒙𝑘 = 𝐾 𝒙 𝑛, 𝒙 𝑘 𝑇 𝑁 1 − 𝑁 1 𝑁 𝑁 𝝋(𝒙 𝑗 ) 𝑇 𝝋 𝒙𝑘 − 𝑗=1 1 − 𝑁 1 − 𝑁 𝝋 𝒙𝑘 𝑗=1 𝑁 𝝋 𝒙𝑗 𝑇 𝝋 𝒙𝑘 𝑗=1 𝑁 𝐾 𝒙𝑗, 𝒙 𝑘 𝑗=1 𝑇 1 − 𝑁 𝑁 𝑙=1 𝝋(𝒙 𝑙 ) 𝑙=1 1 𝑁 𝑁 𝝋 𝒙𝑗 𝑁 𝑁 𝝋(𝒙 𝑙 ) 𝑙=1 1 − 𝝋 𝒙𝑛 𝑁 1 − 𝑁 𝑁 𝑇 𝑙=1 𝑁 𝝋 𝒙𝑛 𝑙=1 1 𝐾 𝒙 𝑛, 𝒙 𝑙 + 2 𝑁 𝑇 1 𝝋 𝒙𝑙 + 2 𝑁 1 𝝋 𝒙𝑙 + 2 𝑁 𝑁 𝑁 𝑁 𝑗=1 𝝋 𝒙𝑙 𝑙=1 𝑁 𝑗=1 𝑙=1 𝐾 𝒙𝑗, 𝒙 𝑙 𝑇 𝝋 𝒙𝑗 𝝋 𝒙𝑗 𝑁 𝑗=1 𝑙=1 𝑁 𝑇 𝝋 𝒙𝑙
6.
9.5 カーネル主成分分析 • 𝐾(𝒙 𝑛
, 𝒙 𝑘 ) は 𝐾 𝒙 𝑖 , 𝒙 𝑗 (𝑖, 𝑗 = 1, ⋯ , 𝑁) を用いて表現できることが分かっ た。 • ⇒カーネルトリックが使えて、𝑑 次元空間での計算で 𝑀 次元非線形特徴空間の 内積を評価できる。
7.
9.5 カーネル主成分分析 • 非線形変換と中心化を行った学習データを 𝑿𝜑= 𝝋
𝒙1 , ⋯ , 𝝋 𝒙 𝑁 ∈ 𝑀 𝑀×𝑁 (ℛ) とする。 • 特異値分解により • 𝑿 𝜑 = 𝑼𝜦𝑽 𝑇 と分解できる。 𝑼 = 𝑿 𝜑 𝑽𝜦−1 と変形できるので、
8.
9.5 カーネル主成分分析 𝒖1 ,
⋯ , 𝒖 𝑟 = 𝑿 𝝋 𝒗1 , ⋯ , 𝒗 𝑟 𝜦−1 1 • λ1 = = 𝑿 𝝋 𝒗1 , ⋯ , 𝑿 𝝋 𝒗 𝑟 1 λ1 𝑿 𝝋 𝒗1 , ⋯ , • よって、 𝑖 番目の要素は 1 λ𝑟 𝒖𝑖 = ⋮ 0 ⋯ 0 ⋱ ⋯ ⋮ 𝑿 𝝋 𝒗𝑟 1 λ𝑖 𝑿 𝝋 𝒗𝑖 1 λ𝑟
9.
9.5 カーネル主成分分析 • 非線形変換と中心化を行った特徴ベクトル 𝑇 𝒖𝑖
𝝋 𝒙 = • = = • 𝑇 1 λ𝑖 𝑿 𝝋 𝒗𝑖 1 λ𝑖 1 λ𝑖 𝒗𝑖 𝑇 𝒗𝑖 𝑇 𝝋 𝒙 = 𝝋 𝒙1 ⋮ 𝝋 𝒙𝑁 1 λ𝑖 𝒗𝑖 𝑇 𝑿 𝝋 𝑇 𝝋 𝒙 𝑇 𝝋 𝒙 = 𝑇 𝐾 𝒙1 , 𝒙 ⋮ 𝐾 𝒙 𝑁, 𝒙 = 𝝋 𝒙 の 𝒖 𝑖 方向への射影は 1 λ𝑖 1 λ𝑖 𝒗𝑖 𝑇 𝑇 𝝋 𝒙1 𝝋 𝒙 𝑇 𝝋 𝒙 ⋮ 𝝋 𝒙𝑁 𝒗 𝑖 𝑇 𝑲(𝑿, 𝒙) 𝑑 次元空間での内積カーネル計算と 𝑟 回の 𝑁 次元ベクトルの内積計算 で、すべての基底方向への射影を求めることができる。
10.
9.6 カーネル部分空間法
11.
9.6 カーネル部分空間法 • CLAFIC法も、内積カーネルを用いた非線形特徴空間内の部分空間法へ 拡張できる。 •
クラス 𝑖 (𝑖 = 1, ⋯ , • • 𝐾) の学習データを 𝑿 𝑖 = (𝒙 𝑖1 , 𝒙 𝑖2 , ⋯ , 𝒙 𝑖𝑁 𝑖 ) とする。 𝑁 𝑖 :クラス 𝑖 のデータ数, 𝑁 = 𝐾 𝑖=1 𝑁𝑖 𝑖 番目のクラスのデータ 𝑿 𝑖 = (𝒙 𝑖1 , 𝒙 𝑖2 , ⋯ , 𝒙 𝑖𝑁 𝑖 ) は、非線形特徴写像に より 𝑿 𝑖𝝋 = • 𝝋 𝒙 𝑖1 , 𝝋 𝒙 𝑖2 , ⋯ , 𝝋 𝒙 𝑖𝑁 𝑖 に変換される。 CLAFIC法では相関行列を使うので、 𝑿 𝑖𝝋 が中心化されている必要はない。
12.
9.6 カーネル部分空間法 • • 𝑿 𝑖𝝋
∈ 𝑀 𝑀,𝑁 ℛ より、 𝑟𝑖 ≔ rank(𝑿 𝑖𝝋 ) ≤ min(𝑀, 𝑁) 𝑿 𝑖𝝋 の特異値分解は次のように書ける。 𝑿 𝑖𝝋 = 𝑼 𝑖 𝜦 𝑖 𝑽 𝑖 𝑇 λ 𝑖1 • = 𝒖 𝑖1 , 𝒖 𝑖2 , ⋯ , 𝒖 𝑖𝑑 𝑖 , ⋯ , 𝒖 𝑖𝑟 𝑖 0 ⋯ 0 ⋮ λ 𝑖2 ⋮ ⋯ ⋱ 0 • ここで、固有値 λ 𝑖1 ≥ λ 𝑖2 ≥ ⋯ ≥ λ 𝑖𝑑 𝑖 ≥ ⋯ ≥ λ 𝑖𝑟 𝑖 ≥ 0 0 λ 𝑖𝑑 𝑖 ⋮ 0 ⋯ ⋱ ⋯ 0 ⋮ λ 𝑖𝑟 𝑖 𝒗 𝑖1 𝑇 𝒗 𝑖2 𝑇 ⋮ 𝒗 𝑖𝑑 𝑖 𝑇 ⋮ 𝒗 𝑖𝑟 𝑖 𝑇
13.
9.6 カーネル部分空間法 • 大きい方から 𝑑
𝑖 個の固有値によって 𝑲 𝑿 𝑖 , 𝑿 𝑖 = 𝑿 𝑖𝜑 𝑇 𝑿 𝑖𝜑 のクラス忠実度が 満たされるとする。 𝑿 𝑖𝝋 = 𝑼 𝑖 𝜦 𝑖 𝑽 𝑖 𝑇 λ 𝑖1 • = 𝒖 𝑖1 , 𝒖 𝑖2 , ⋯ , 𝒖 𝑖𝑑 𝑖 , ⋯ , 𝒖 𝑖𝑟 𝑖 0 ⋯ 0 ⋮ λ 𝑖2 ⋮ ⋯ ⋱ 0 • 0 λ 𝑖𝑑 𝑖 ⋮ 0 𝑑 𝑖 次元の非線形部分空間は青枠内の要素で記述できる。 ⋯ ⋱ ⋯ 0 ⋮ λ 𝑖𝑟 𝑖 𝒗 𝑖1 𝑇 𝒗 𝑖2 𝑇 ⋮ 𝒗 𝑖𝑑 𝑖 𝑇 ⋮ 𝒗 𝑖𝑟 𝑖 𝑇
14.
9.6 カーネル部分空間法 𝑙𝑖 2 𝒙 = = • ≈ = • 𝑑𝑖 𝑗=1 𝑇 𝒖
𝑖𝑗 𝝋 𝒙 𝑇 𝑼𝑖 𝝋 𝒙 𝜦𝑖 𝜦𝑖 −1 −1 2 (∵ ピタゴラスの定理) 2 𝑇 2 𝑇 𝑽 𝑖 𝑿 𝑖𝜑 𝝋 𝒙 𝑇 𝑽 𝑖 𝑲 𝑿 𝑖, 𝒙 2 内積カーネルの計算と、𝑁 𝑖 次元ベクトルの内積計算で射影の長さの2乗が得られ る。 • 識別規則は、 • • 識別クラス = arg max 𝑙 𝑖 2 𝒙 𝑖 (𝑖 = 1, ⋯ , 𝐾) となる。 リジェクトは9.4節と同様に行えばよい。
15.
ご清聴ありがとうございました。
Download