SlideShare a Scribd company logo
確率的主成分分析
PRML 12.2
2015.08.25 PCA勉強会
Mika Yoshimura
PCA(最小二乗法)
xn
!xn =Uzn + x
→UはJを最小化する固有ベクトル
zn =UT
(xn − x)
The	
  op'mal	
  linear	
  reconstruc'on	
J =
1
N
xn − !xn
2
n=1
N
∑
https://liorpachter.wordpress.com/tag/probabilistic-pca/
確率的PCA
x = y(z;w)+ε潜在変数モデル:
→潜在変数zの事前分布+ノイズεの分布から
データ空間のxを生成する
等方性の
Gaussian noise
y(z;w)
N(0,σ 2
I)
xn
部分空間上の
潜在データ点
x = Wz +µ +ε
•  W : D*M行列, 部分空間を張る
•  z : M次元の潜在変数
•  μ : D次元ベクトル
•  ε : D次元の平均0,共分散σ^2I の
ガウス分布に従うノイズ変数
確率モデルとしてのPCA
•  潜在変数zの事前分布と条件付き確率
x = Wz +µ +ε
p(z) = (2π)−M /2
exp −
1
2
zT
z
"
#
$
%
&
'
=N(z | 0, I)
p(x | z) = (2πσ 2
)−D/2
exp −
1
2σ 2
x −Wz −µ
2"
#
$
%
&
'
= N(x |Wz +µ,σ 2
I)
p(x) = p(x | z)p(z)dx = (2π)−D/2
C
−1/2
exp −
1
2
(x −µ)T
C−1
(x −µ)
"
#
$
%
&
'
∫ = N(x | µ,C)
C =σ 2
I +WWT
•  W : D*M行列, 線形部分空間を張る
•  z : M次元の潜在変数
•  μ : D次元ベクトル
•  ε : D次元の平均0,共分散σ^2I の
ガウス分布に従うノイズ変数
→ p(x)を求めるには、Cの逆行列が必要
C−1
=σ −2
I −σ −2
WM−1
WT
M = WT
W +σ 2
I
逆行列の恒等式によると
→M*M次元の計算になる!
事後分布と尤度関数
•  事後分布
	
  
	
  
	
  
	
  
•  尤度関数
p(z | x) = p(x | z)p(z) / p(x)
p(z | x) = (2π)−M /2
σ −2
M
1/2
exp −
1
2
x − M−1
WT
(x −µ){ }
T
(σ −2
M) x − M−1
WT
(x −µ){ }
"
#$
%
&'
= N(z | M−1
WT
(x −µ),σ 2
M−1
)
L = ln p(xn |W,µ,σ 2
){ }= −
N
2n=1
N
∑ Dln(2π)+ ln C +tr(C−1
S){ }
S =
1
N
(x −µ)(x −µ)T
n=1
N
∑ →xの標本共分散行列
N(z |(I +σ −2
WT
W)−1
WT
σ −2
I(x −µ),(I +σ −2
WT
W)−1
)
= N(z | M−1
WT
(x −µ),σ 2
M−1
)
PRML
演習12.8 →
M = WT
W +σ 2
I
C =σ 2
I +WWT
最尤法を使う
µML =
1
N
xn
n=1
N
∑
∂L
∂W
= N(C−1
SC−1
W −C−1
W) WML =UM (ΛM −σ 2
I)1/2
R
※Tipping and Bishop(1999b) による閉形式の厳密解
Um :D*M行列。共分散行列Sの固有ベクトルの部分集合
Λm:M*M対角行列。固有値λiを要素にもつ
R:任意のM*M直交行列。M次元の潜在変数空間の回転行列
尤度関数の最大値は、上記M個の固有ベクトルを固有値の上位M個に属するものに
なるように選ぶことで得られる。(その他のすべての停留点は鞍点となる)
→Λmは、共分散行列Sの固有値上位λ1,…λm
σ 2
ML =
1
D − M
λi
i=M+1
D
∑ →切り捨てられた次元に関連する分散の平均
SC−1
W = W
次元削減と再構成
•  PCA
•  確率的PCA
•  最適化
– 確率的PCAの式では、直交射影が歪む
– 再構成式の修正
– 期待値を使わなくても良いらしい
!xn =UM zn +µzn =UM
T
(xn −µ)
<z_n> : 事後分布p(z¦x)から求めた期待値
!xn = WML zn +µ
!zn = WML
T
(xn −µ) !xn = WML (WML
T
WML )−1
!zn +µ
!xn = WML (WML
T
WML )−1
M zn +µ
Mixtures of probabilistic principal component analysers , Neural Computation 11(2), pp 443‒482. MIT Press.
zn = M−1
WML
T
(xn −µ)
WML = WML (WML
T
WML )−1
M
ノイズ項の効果 (D=2,M=1)
等方性の
Gaussian noise
y(z;w)
N(0,σ 2
I)
xn
部分空間上の
潜在データ点
最尤推定した
モデル
主成分空間に
射影された
データ点
最小二乗法で得られた直線
(ノイズパラメータあり)
最小二乗法で得られた直線
(ノイズパラメータなし)
EMアルゴリズム
•  利点
– 高次元空間では計算量的に有利
– 見通しよく欠損データを扱える
•  完全データの対数尤度関数
•  EステップとMステップはいつもの
ln p(X, Z | µ,W,σ 2
) = ln p(xn | zn )+ ln p(zn ){ }
n=1
N
∑
Ε p(X, Z | µ,W,σ 2
)"
#
$
% Wnew σ 2
new
ベイズ的な扱い
•  各パラメータの事前分布を与える
•  ベイズ的パラメータ推定を適用する
•  利点
– 自動次元数選択ができる
•  しかし
– 厳密なベイズ推定は実行不可能(周辺化無理)
– 部分ベイスや変分ベイズで近似的に実行する
確率的PCAの利点まとめ
•  要約すると
– EMアルゴリズムが使える
– ベイズ的取り扱いの基礎を与える
•  何がいいのか
– 共分散行列を計算しなくていい(EM)
– オンライン化できる(EM)
– データ集合内の欠損値を扱える(EM)
– 確率的PCAの混合モデルを定式化できる(EM)
– 次元数を自動的に見出せる(ベイズ)
– などなど

More Related Content

What's hot

猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
 
異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知
hagino 3000
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリング
Kosei ABE
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
Prunus 1350
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
 
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
Shohei Taniguchi
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
 
最適化計算の概要まとめ
最適化計算の概要まとめ最適化計算の概要まとめ
最適化計算の概要まとめ
Yuichiro MInato
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
 
逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎
ShoutoYonekura
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
Deep Learning JP
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP
 
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門スペクトラルグラフ理論入門
スペクトラルグラフ理論入門irrrrr
 

What's hot (20)

猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリング
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
 
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
最適化計算の概要まとめ
最適化計算の概要まとめ最適化計算の概要まとめ
最適化計算の概要まとめ
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎
 
PRML8章
PRML8章PRML8章
PRML8章
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
 
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門スペクトラルグラフ理論入門
スペクトラルグラフ理論入門
 

Similar to 確率的主成分分析

PRML§12-連続潜在変数
PRML§12-連続潜在変数PRML§12-連続潜在変数
PRML§12-連続潜在変数
Keisuke OTAKI
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
裕樹 奥田
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
Yukara Ikemiya
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
Chika Inoshita
 
PRML chapter7
PRML chapter7PRML chapter7
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデルshow you
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
sleepy_yoshi
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布t2tarumi
 
主成分分析
主成分分析主成分分析
主成分分析
貴之 八木
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
Maruyama Tetsutaro
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
貴之 八木
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Akihiro Nitta
 
Prml sec6
Prml sec6Prml sec6
Prml sec6
Keisuke OTAKI
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰hagino 3000
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)
Yoshitake Misaki
 
PRML 2.3節
PRML 2.3節PRML 2.3節
PRML 2.3節
Rei Takami
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
Yuki Matsubara
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタ
Toshihisa Tanaka
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 

Similar to 確率的主成分分析 (20)

PRML§12-連続潜在変数
PRML§12-連続潜在変数PRML§12-連続潜在変数
PRML§12-連続潜在変数
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 
主成分分析
主成分分析主成分分析
主成分分析
 
ユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリングユークリッド距離以外の距離で教師無しクラスタリング
ユークリッド距離以外の距離で教師無しクラスタリング
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
 
Prml sec6
Prml sec6Prml sec6
Prml sec6
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
 
Infomation geometry(overview)
Infomation geometry(overview)Infomation geometry(overview)
Infomation geometry(overview)
 
PRML 2.3節
PRML 2.3節PRML 2.3節
PRML 2.3節
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタ
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 

確率的主成分分析