SlideShare a Scribd company logo
1 of 37
Partial least squares回帰と 
画像認識への応用 
名城大学 
熊谷章平堀田一弘
はじめに 
• Partial Least Squares(PLS) 
– 部分最小二乗、偏最小二乗 
• 1975年にHerman Woldによって提案された 
• CVでは2009年のICCVにて人検出に適用 
HOG 
共起特徴 
17万次元 
PLS 
20次元 
2次判別分析 
高速かつ高精度な検出
イマイチ分かりづらい 
☹ 資料によってアルゴリズムの書き方がバ 
ラバラ 
☹ アルゴリズムを完全に説明した資料 
は殆ど無い 
シンプルで有力な方法… 
しかし、取っ付きづらい
PLS回帰の概要 
y 
相関性を考慮 
X 
PCA:データの分布をよく表す部分空間 
PLS:クラスラベルを考慮、識別に有効な部分空間 
➡ 予測・識別に有効な部分空間を作成できる
PLS回帰の概要 
• 回帰分析・識別器・次元圧縮法 
• 多出力可能 
y1 
y 
… 
説明変数 
部分空間 
目的変数 
t1 
t2 
tm 
x1 
x2 
x3 
… 
xn 
… 
…
PLSアルゴリズム 
NIPALS 
(Nonlinear Iterative Partial Least Squares) 
• 一般的なPLSアルゴリズム 
• シンプルで実装が容易 
• PLS1…単出力 
• PLS2…多出力 
NIPALS PLS1 
入力 
説明変数:X∈Rn×d 
目的変数:y∈Rn×1 
(n:サンプル数,d:次元数) 
出力 
回帰係数:b 
1. X,yを標準化 
2. w = XTy / ||XTy||2 
3. t = Xw 
4. c = yTt (tTt)-1 
5. p = XTt (tTt)-1 
6. X = X-tpT 
7. y = y-tcT 
8. 任意の数まで繰り返す 
9. b = W(PTW)-1cT 
SIMPLS 
• 特異値分解を用いたアル 
ゴリズム
学習データ 
• 学習サンプル:X∈Rサンプル数×次元数 
• 教師ラベル:y∈Rサンプル数×1 
次元数 
サンプル数X サンプル数 
y 
1
前処理 
• 標準化(平均0分散1) 
μx:学習データの平均ベクトル:学習データの標準偏差 
μy:ラベルの平均値:ラベルの標準偏差 
• 中心化(平均0) 
標準化もしくは中心化 
アルゴリズムによってバラバラ…
Xとyの相関を計算 
Xとyの共分散(相関)を求める 
XT 
w 
y 
Xとyの共分散 
(※iは繰り返し数) 
w:部分空間の基底ベクトル
スコアを求める 
相関から得た係数wとXの内積 
X 
w 
wの空間に射影し、スコアtを得る 
t:部分空間に射影したX 
※ここまでが第1成分を得る処理 
説明変数 
目的変数 
w 
t =
情報の削除 
部分空間の生成に使った情報の削除 
y 
t 
スコアtからラベルyを予測する回帰係数cを求める 
回帰係数cとスコアtと内積をとり、減算 
→ yを更新、情報の削除
情報の削除 
Xについても同じ処理をする 
X 
t 
Xの更新
繰り返し 
再度、共分散を求める処理に戻る 
→ 前の基底wi-1と新しい基底wiは直交する 
w w1 2 
新たな基底ベクトルwiから第2成分を求める… 
繰り返す度、部分空間の次元が増える 
最適な成分数(次元数)はCross validationで最適化
テストデータの射影 
注意⚠ 
テストデータの部分空間へ射影する場合… 
スコア基底テストデータ 
… 
第1成分の基底: 
第2成分の基底: 
… 
第n成分の基底: 
異なる基準のX, yから基底ベクトルを求めている 
→ テストデータも情報を削除する必要がある
テストデータの射影 
… 
射影、削除を繰り返し… 
テストデータのスコアを得る 
成分数繰り返し⇨ 計算回数が多い☹ 
W*を導入
W*とは 
繰り返さずに射影できる基底W* 
W*、xtestとの内積 
PLSの部分空間に射影したスコアttestが得られる 
W,P…繰り返す度に得られるw, pを並べて行列を構成する 
成分数(繰り返し数) 
W 
次元数 
w P 2 wn 
= w1 … 
証明困難 
…
PLS回帰の回帰係数 
主成分回帰など 
特徴量xtest 
PLS回帰の回帰係数 
部分空間 
ttest 
ラベルy 
射影予測 
特徴量xtest 
部分空間 
ttest 
ラベルy 
射影予測
PLS回帰の回帰係数 
スコアTよりラベルyを予測する場合を考える 
c…スコアtからyを予測する係数 
最終的な回帰係数b
回帰分析 
回帰係数b 
中心化・標準化を補正
実装 
• MATLAB 
– plsregress関数(要Statistics toolbox) 
– SIMPLS algorithm 
(SVDにより回帰係数を求める) 
• Python 
– scikit-learn
参考資料 
Kernel Method for Pattern Analysis 
John Shawe-Taylor (著), Nello Cristianini (著) 
✓ 多クラスPLSのMATLABコード掲載 
✓ オープンアクセス 
訳本 
カーネル法によるパターン解析 
John Shawe-Taylor (著), Nello Cristianini (著), 大北剛(翻訳)
参考資料 
Multivariate Data Analysis and Chemometrics 
http://statmaster.sdu.dk/courses/ST02/
PLS回帰の比較実験
実験 
• 識別器 
– PLS vs SVM 
• 回帰分析 
– PLS vs 
主成分回帰,SVR
実験 
• 識別器 
– PLS vs SVM 
• 回帰分析 
– PLS vs 
主成分回帰,SVR
実験環境 
• INRIA Person Dataset 
– 学習画像 
• positive:2416枚 
• negative:12180枚 
• 5-fold Cross Validation 
– SVMのコスト/ PLSの成分数最適化 
– 評価画像 
• positive:1126枚 
• negative:4530枚 
– 評価画像にnegative追加 
• SceneClass13(36140枚)
PLSによる人検出 
• 説明変数 
–HOG特徴量(14,580次元) 
• 目的変数 
– Positive +1 
– Negative -1
ROC曲線によるPLSとSVMの比較
実験 
• 識別 
– PLS vs SVM 
• 回帰 
– PLS vs 
主成分回帰,SVR
回帰による比較 
粒子計数 
– 細胞内の脂肪滴 
– 目的変数(ラベル):粒子数 
– 説明変数(特徴量):HLAC特徴
脂肪滴計数の特徴量 
複数特徴量間HLAC特徴 
- 異なる特徴量にマスクパターンを適用 
- 9種類の特徴量 
• 81(=9x9)特徴組み合わせ 
• 1次のマスクパターンの拡張 
→ 9✕9画素マスクパターン(41マスクパターン) 
• 3,321次元(41マスク✕81組み合せ)
実験環境 
評価指標 
Mean absolute error Mean deviation error 
• 学習画像:80枚 
⁃ 5-fold Cross Validation 
• 評価実験:19枚
実験結果 
MAE MDE 最適な成分数 
サポートベクター回帰11.05 0.314 ー 
主成分回帰6.16 0.264 948 
PLS回帰5.16 0.126 139 
PLS回帰の計数誤差が最小 
最適な成分数PCAの1/7成分 
→ 識別・回帰の次元削減に有効
歩行者計数 
Mall dataset 
ショッピングモールに設置したカメラの映像 
目的変数:画像中の人数 
説明変数:HLAC特徴
歩行者計数 
比較実験 
 元の空間でSVR 
 Original PLSR (PLSの部分空間+重回帰) 
 PLS+SVR(PLSの部分空間+SVR) 
PLSの部分空間 
ラベルごとに分離した空間
歩行者計数 
実験設定 
 学習画像1,200枚、テスト画像800枚 
 5 fold cross validation 
 平均人数32人(最小13人、最大53人) 
比較結果 
MAE MDE 
SVR 3.57 0.111 
Original PLS 
(PLS+重回帰) 
2.98 0.093 
PLS+SVR 2.86 0.090
まとめ 
PLS回帰 
– PLS回帰のアルゴリズムについて説明 
– シンプルなアルゴリズム 
– 分離に有効な部分空間を生成できる 
– 部分空間上で回帰分析、識別

More Related Content

What's hot

Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
Kohta Ishikawa
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
Shintaro Fukushima
 

What's hot (20)

深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
 
正準相関分析
正準相関分析正準相関分析
正準相関分析
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 
時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17
 
Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)Rでisomap(多様体学習のはなし)
Rでisomap(多様体学習のはなし)
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
 
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
ICCV 2019 論文紹介 (26 papers)
ICCV 2019 論文紹介 (26 papers)ICCV 2019 論文紹介 (26 papers)
ICCV 2019 論文紹介 (26 papers)
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 
MICの解説
MICの解説MICの解説
MICの解説
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks
 

Similar to Partial least squares回帰と画像認識への応用

ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernelISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel
弘毅 露崎
 
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門
Yohei Sato
 
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
Akisato Kimura
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
Koji Matsuda
 

Similar to Partial least squares回帰と画像認識への応用 (20)

[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
 
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernelISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
 
Let中部2012シンポスライド
Let中部2012シンポスライドLet中部2012シンポスライド
Let中部2012シンポスライド
 
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門
 
Survival analysis0702 2
Survival analysis0702 2Survival analysis0702 2
Survival analysis0702 2
 
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
 
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
Survival analysis0702
Survival analysis0702Survival analysis0702
Survival analysis0702
 
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7
 
Prml 4.3
Prml 4.3Prml 4.3
Prml 4.3
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
 
SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)
 
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields [DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
 
第3回nips読み会・関西『variational inference foundations and modern methods』
第3回nips読み会・関西『variational inference  foundations and modern methods』第3回nips読み会・関西『variational inference  foundations and modern methods』
第3回nips読み会・関西『variational inference foundations and modern methods』
 

Partial least squares回帰と画像認識への応用