16. §12.1.4 高次元データに対する主成分分析
- データ数NのD次元データをM次元に射影する (M < D)
- (?)N点は高々N − 1次元の線形の部分空間を定義するから...
N − 1 < Mはダメ(意味がないらしい)
対応する固有値が0になることに対応するらしい(足りない分)
固有ベクトルとか求めてO(D 3)
( )
- X = (x1 − x ) (x2 − x ) ... (xN − x ) : NxD行列
T ¯ ¯ ¯
1
S = NXTX
1
→ N X T Xui = λi ui , i = 1, 2, ...
1
→ N XX T (Xui ) = λ(Xui ), vi = Xui とする
1
→ N XX T vi = λi vi
- 元の共分散行列と同じ固有値λi を持ち,D → N, O(N 3)
PRMl読書会@KMC-12章:連続潜在変数 8/21
18. §12.2 確率的主成分分析(1)
- 主成分分析 x ベイズ = 確率的主成分分析(PPCA)
制約付きのガウス分布に基づく
確率的取り扱いをするので,ベイズの定理/EM法が使える
生成モデルとして利用できる
その他にもいいこといっぱい(?)
- データ→主成分を探す ⇀ 裏に隠れ変数がある→データ
↽
p(z) = N (z | 0, I )
p(x|z) = N (x | Wz + µ, σ 2I )
§8.1.4: 線形ガウスモデルの例(全部ガウス!)
∫
周辺確率 p(x) = p(x|z)p(z)dz
PRMl読書会@KMC-12章:連続潜在変数 9/21
19. §12.2 確率的主成分分析(2)
- 生成モデル的な扱い
1. 潜在変数の値ˆ を一つ選ぶ
z
2. z で条件付けしつつ,観測変数xをサンプリングする
ˆ
3. D次元観測変数x-M次元潜在変数z+線形変換+ノイズ
w
x2 x2
p(x|z)
µ µ
z|w|
}
p(x)
p(z)
z z x1 x1
○ - N (x|W z + µ, σ 2I ), ○ p(x)の等高線
ˆ
PRMl読書会@KMC-12章:連続潜在変数 10/21
20. §12.2 確率的主成分分析(2)
- 生成モデル的な扱い
1. 潜在変数の値ˆ を一つ選ぶ
z
2. z で条件付けしつつ,観測変数xをサンプリングする
ˆ
3. D次元観測変数x-M次元潜在変数z+線形変換+ノイズ
- 設定: 裏に主成分(に対応する隠れ変数があるんじゃね?)
p(z) = N (z | 0, I ), p(x|z) = N (x | Wz + µ, σ 2I )
∫
p(x) = p(x|z)p(z)dz, これらをごにょごにょして処理する
- ガウス分布同士の積なので - E[x] = µ, Cov[x] = WW T + σ 2I
- 生成モデルから考えて x = Wz + µ + ϵ → 計算でも同じ
- p291. 直感的には... → 意味不明
PRMl読書会@KMC-12章:連続潜在変数 10/21
21. §12.2 確率的主成分分析(2)
- 設定: 裏に主成分(に対応する隠れ変数があるんじゃね?)
p(z) = N (z | 0, I )
p(x|z) = N (x | Wz + µ, σ 2I )
∫
p(x) = p(x|z)p(z)dz = N (x | µ, C )
E[x] = µ
Cov[x] = WW T + σ 2I
˜
- W は直交行列Rに関して回転不変(冗長) - W = WR
˜ ˜
W W T = WW T ,
- 逆行列 C −1 = σ −2I − σ −2WM −1W T , M = W T W + σ 2I
- 事後分布p(z | x) = N (z | M −1W T (x − µ), σ 2M −1)
PRMl読書会@KMC-12章:連続潜在変数 10/21
25. §12.2.1 最尤法による主成分分析
- 共分散行列: C = WW T + σ 2I
- (v , v ) = 1の向きを考える
(v , v ) = 1の向きには,分散λi = (v , Cv )を与える
v は主部分空間以外の固有ベクトルの一次結合とする
(v , U) = 0 → (v , Cv ) = σ 2
主部分空間に直交する方向でのノイズ
- v = ui を考える - (v , Cv ) = λi − σ 2 + σ 2 = λi
PRMl読書会@KMC-12章:連続潜在変数 11/21
26. §12.2.1 最尤法による主成分分析
- 最尤法によるモデルの構築の手法
共分散行列の固有値と固有ベクトルを利用する→W , σ 2を求める
- 仮にM = Dのとき(圧縮しないとき)
UM = U, LM = L, C = S
- PCAの定式化とPPCAの定式化は結局同じようなもん
p(z|x)の方向で圧縮操作を考える
E[z|x] = M −1WML(x − x ), M = W T W + σ 2I
T
¯
σ 2 → 0のとき(WMLWML)−1WML(x − x )
T T
¯
主部分空間への射影になるらしい(演習12.11)
- パラメータ数について
PRMl読書会@KMC-12章:連続潜在変数 11/21
27. §12.2.2 EMアルゴリズムによる主成分分析
- EM法の扱い(完全データと不完全データ...)
∑N
ln p(X , Z |µ, W , σ ) = n=1{ln p(xn |zn ) + ln p(zn )}
2
p(xn |zn )とp(zn )を実際に代入してガリガリ...
式ぇ...
- Eステップ - 古いパラメータで期待値を計算
E[zn ] = M −1W T (xn − x )
¯
E[zn zn ] = σ 2M −1 + E[zn ]E[zn ]T
T
- Mステップ - 最大化する(C.24 とかいろいろ使うらしい)
∑ ∑
Wnew = [ (xn − x )E[zn ] ][ E[zn zn ]]−1
¯ T T
σML ぇ...
2
PRMl読書会@KMC-12章:連続潜在変数 12/21
28. §12.2.2 EMアルゴリズムによる主成分分析
- EM法の利点がそのまま適応される - 反復処理
- 実は計算効率が良く,σ 2 → 0のとき,処理が簡単化
( )
E[zn zn ]の計算が不要, データ行列X
T ˜ ,Ω = ... E[zn ] ...
Eステップ: Ω = (Wold Wold )−1Wold X T
T T ˜
Mステップ: Wnew = X T ΩT (ΩΩT )−1
˜
PRMl読書会@KMC-12章:連続潜在変数 13/21