SlideShare a Scribd company logo
Latent Linear Model
7번째 ML study
Factor Analysis : intuition
• 11차원(차의 특성)의 데이터셋을 2차원(Component1, Component2)으로 차원축소(빨간색점)
• 사실은 한점으로 고정되는 게 아니라 확률분포로 나옴
• 각 특성의 유닛벡터를 (1,0,0,0,0,0,0,0,0,0,0), (0,1,0,0,0,0,0,0,0,0,0)를 FA로 사영하면 comp1에 가까운 특성,
comp2에 가까운 특성을 알 수 있음
12.1 Factor analysis – model spec
• An alternative is to use a vector of real-valued latent variables,zi ∈R

• where W is a D×L matrix, known as the factor loading matrix, and Ψ is a D×D covariance matrix.
• We take Ψ to be diagonal, since the whole point of the model is to “force” zi to explain the correlation, rather than
“baking it in” to the observation’s covariance.
• z가 어느 한점으로 고정된 상태에서는 변수간의 상관관계는 없다고 가정
• The special case in which Ψ=σ2I is called probabilistic principal components analysis or PPCA.

x의 정보들이 완전히 독립이 아니라서 압축의 여지가 있다는 것
x는 어떤 작은 차원의 latent한 random variable을 선형변환 시킨 것이다
12.1.1 FA is a low rank parameterization of an MVN
• FA can be thought of as a way of specifying a joint density model on x using a small number of parameters.
• MVN을 표현하는데, 원래는 공분산를 표현하기 위해 O(D*D)의 parameter가 필요한데, latent variable을
가정하면 O(D*L)의 parameter만 있으면 된다
12.1 Factor analysis - visualize
• The generative process, where L=1, D=2 and Ψ is diagonal, is illustrated in Figure 12.1.
• We take an isotropic Gaussian “spray can” and slide it along the 1d line defined by wzi +μ.

• This induces an ellongated (and hence correlated) Gaussian in 2d.

초록색의 2차원 정규분포는 1차원 정규분포를 가진 z를 W로 선형변환한 것으로도 compact하게 표
현할 수 있다.
12.1.2 Inference of the latent factors
•

latent factors z will reveal something interesting about the data.

xi(D차원)를 넣어서 L차원으로 매핑시킬 수 잇음
training set을 D차원에서 L차원으로 차원 축소
12.1.2 Inference of the latent factors
D =11차원(엔진크기, 실린더 수, 가격,...), N =328 개의 example(자동차 종류), L = 2
• 밑에 공식에 의해 각 피쳐(엔진크기, 실린더 수,.. 11개)의 유닛 벡터 e1=(1,0,...,0), e2=(0,1,0,...,0)를 저차원 공간
에 사영한 것이 파란색 선 (biplot이라고 함)
• 각 데이터 X도 사영시킴(빨간색)

L*L*(L*D*D*D*D*1 + L*L*L*1) = L*1

• biplot 가까이 있는 빨간색점(차량)이 그 특성을 잘 가지고 있는 차

training set을 D차원에서 L차원으로 차원 축소 (빨간색 점)
12.1.4 Mixtures of factor analysers
• 각 데이터 Xi가 k개의 FA에서 나왔다는 모델(GMM과 비슷)
•

let [the k’th linear subspace of dimensionality Lk]] be represented by Wk, for k=1:K.

• Suppose we have a latent indicator qi ∈{1,...,K} specifying which subspace we should use to generate the data.
• We then sample zi from a Gaussian prior and pass it through the Wk matrix (where k=qi), and add noise.

어떤 FA를 쓸 것인가를 할당하는 변수

)
12.1.5 EM for factor analysis models
Expected log likelihood

ESS(Expected Sufficient Statistics)
MLE를 하는데 필요한 데이터의 충분통계량
모델 parameter W,PHI,MU를 알면 추정할 수 있
다.
모델 parameter는 t-1의 것을 쓴다 초기에는 랜덤
12.1.5 EM for factor analysis models
• E- step

• M-step
MLE로 구하면
Eigenvector, Eigenvalue
• 어떤 선형 변환(행렬)의 고유벡터는 변환 후에도 변하지 않거나 그 크기만이 변하고 방향은 일정한 벡터를 가
리킨다.
• 어떤 고유벡터의 고유값은 변환 전과 후의 고유벡터의 크기 비율이다.
선형변환

고유값

고유벡터
PCA: intuition
• 차원을 줄였을 때, 사영된 데이터의 분산이 최대가 되는 것이 좋다
• FA의 special case인 PCA가 왜 이런 결과를 보이는지 볼 것이다
12.2 Principal components analysis (PCA)
• Consider the FA model where we constrain Ψ=σ2I, and W to be orthonormal.
• It can be shown (Tipping and Bishop 1999) that, as σ2 →0, this model reduces to classical (nonprobabilistic)principal
components analysis( PCA),
• The version where σ2 > 0 is known as probabilistic PCA(PPCA)

즉 W의 역행렬은 W’
• zi를 선형 변환(W)으로 보낸 hat{xi}이 xi와의 에러가 최소화되는 것이 목적 함수, 단 W는 orthonomal 가정
• 이 최적의 W는 X’*X의 공분산 행렬의 eivenvector를 대응하는 eigenvalue의 크기 순으로 붙인 것
proof sketch
• reconstruction error를 줄이는 W를 구하는 것 = W 로 사영되는 데이터 z의 분산이 최대가 되는 W를 구하는 것
• W로 사영되는 데이터z의 분산이 최대가 되는 W를 lagrange multiplier 최적화로 구해본다

• W로 사영되는 데이터z의 분산이 최대가 되는 W를 구해봤더니 데이터의 empirical covariance matrix X’X의 [첫
번째, 두번째, 세번쨰.. eigenvector]
proof of PCA
• wj ∈RD to denote the j’th principal direction
• xi ∈RD to denote the i’th high-dimensional observation,

• zi ∈RL to denote the i’th low-dimensional representation

• Let us start by estimating the best 1d solution,w1 ∈RD, and the corresponding projected points˜z1∈RN.

• So the optimal reconstruction weights are obtained by orthogonally projecting the data onto the first principal
direction
proof of PCA
zi가 첫번째 latent 차원 zi = w1xi로 사
영된 데이터 포인트의 분산

•

목적함수가 error를 최소화하는 것에서 사영된 점들의 분산을 최대화하는 것으로 바뀌었다
• 분산이 최대화 될수록 J(w1)가 작아짐
X의 공분산 행렬

direction that maximizes the variance is an
eigenvector of the covariance matrix.
proof of PCA
eigenvalue는 eigenvector에 사영된 점들의 분산

Optimizing wrt w1 and z1 gives the same solution as before.

The proof continues in this way. (Formally one can use induction.)
12.2.3 Singular value decomposition (SVD)
• PCA는 SVD와 밀접한 관계가 있다
• SVD를 돌리면, PCA의 해 W를 구할 수 있다
• PCA는 결국 truncated SVD approximation와 같다

thin SVD

• SVD는 행렬 분해 알고리즘으로, 어떤 큰 행렬을 세 가지 행렬로 쪼갠다
• truncated SVD는 자신의 원하는만큼의 singular value만 쓴다.
• singular value의 정체가 뭔지는 뒤에 설명할 것이다
SVD: example

truncated SVD
sigular value 한개,두개,세개 쓴 근사치
SVD: example
• 데이터 압축에 쓰일수 있다
•

이미지 100*200 = 20000 parameters, rank 20 tSVD의 경우, 100*20(U) + 20(S) + 20*200(V’) = 6020 parameters
12.2.3 Singular value decomposition (SVD)

PCA의 해 W는 XTX의 eigenvectors와 같으므로, W=V
svd를 돌리면  pca의 해가 나온다
example
• 데이터 생성

• 공분산 행렬의 eivenvalue와 eigenvector

• X의 svd 결과
PCA는 결국 truncated SVD approximation와 같다

• 결론적으로, X= USV’에서 US(N*L 행렬)는 PCA에서 X(N*D 행렬)가 W에 사영된 차원 축소버전이라고 볼 수 있다
wrap up
• latent variable(zi)을 선형변환(W)한 것이 xi와 가장 가까이 되는 선형변환을 찾고 싶다
• 이 선형변환을 찾는 문제는 결국 X를 사영시켰을 때 그 점들이 가장 큰 분산을 갖는 축들을 찾는 것이다

• 그 가장 큰 분산을 갖는 축은 X의 공분산 행렬(X’X)의 가장 큰 eigenvalue값들을 갖는 eigenvector들이다.
• truncated SVD는 X 행렬을 세가지 행렬(USV’)로 분해하여 low rank appoximation을 하는데
• V는 PCA의 해 W와 같다
• US는 PCA의 X가 W에 사영된 점 Z와 같다
12.2.4 Probabilistic PCA
• x의 평균은 0, Ψ=σ2I 이고 W가 orthogonal한 FA를 생각하자.

MLE로 구하면,
12.2.5 EM algorithm for PCA
• PCA에서 Estep은 latent 변수 Z를 추론해 내는 것이고 FA EM에서 etep에서의 posterior의 평균을 쓴다

X가 W가 span하는 공간에 사영된 것

확률모델이 아니라 공분산 없다고 침
행렬 표현
12.2.5 EM algorithm for PCA
• 파란색 막대(W)에 용수철이 동그라미(Z)에 달려있고, 그걸 초록색 위치(X)만큼 잡아당기고 있다고 해보자
• E-step은 스프링의 장력(sum of squared residual에 비례)이 최소화 되도록 동그라미를 옮긴다

• M-step은 막대 위의 동그라미 위치는 고정한 상태에서 장력이 최소화되도록 막대를 회전시킨다
•

축이 데이터 X의 가장 큰 분산의 위치에 근접하게 됨을 알 수 잇다

Wt-1
12.2.5 EM algorithm for PCA
• EM의 장점
• EM can be faster
• EM can be implemented in an online fashion, i.e., we can update our estimate of W
as the data streams in.
12.3.1 Model selection for FA/PPCA
12.3.2 Model selection for PCA
Conclusion
• FA는 정규분포의 x 을(D*D paramters), 더 작은 parameter 갯수(D*L)로 표현한다.
• PCA는 FA의 special 케이스이다

• PCA문제

의 해 W는 Z로 사영되는 데이터의 분산이 최대가 되게 하고 가장 큰

eigenvalue에 대응하는 eigenvectors이다
• SVD (X = USV’)에서 V는 X의 공분산 행렬의 eigenvectors이다. 그러므로 W=V

More Related Content

What's hot

第7回WBAシンポジウム:松嶋達也〜自己紹介と論点の提示〜スケーラブルなロボット学習システムに向けて
第7回WBAシンポジウム:松嶋達也〜自己紹介と論点の提示〜スケーラブルなロボット学習システムに向けて第7回WBAシンポジウム:松嶋達也〜自己紹介と論点の提示〜スケーラブルなロボット学習システムに向けて
第7回WBAシンポジウム:松嶋達也〜自己紹介と論点の提示〜スケーラブルなロボット学習システムに向けて
The Whole Brain Architecture Initiative
 
【論文紹介】U-GAT-IT
【論文紹介】U-GAT-IT【論文紹介】U-GAT-IT
【論文紹介】U-GAT-IT
meownoisy
 
AlphaGoのしくみ
AlphaGoのしくみAlphaGoのしくみ
AlphaGoのしくみ
Hiroyuki Yoshida
 
#FTMA15 第一回 鬼コース 全PDF
#FTMA15 第一回 鬼コース 全PDF#FTMA15 第一回 鬼コース 全PDF
#FTMA15 第一回 鬼コース 全PDF
Yoichi Ochiai
 
量子コンピュータの最新動向(2020年1月時点)
量子コンピュータの最新動向(2020年1月時点)量子コンピュータの最新動向(2020年1月時点)
量子コンピュータの最新動向(2020年1月時点)
Takumi Kojo
 
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
Deep Learning JP
 
プレゼンの技術
プレゼンの技術プレゼンの技術
プレゼンの技術
心 谷本
 
AIのラボからロボティクスへ --- 東大松尾研究室のWRS2020パートナーロボットチャレンジへの挑戦
AIのラボからロボティクスへ --- 東大松尾研究室のWRS2020パートナーロボットチャレンジへの挑戦AIのラボからロボティクスへ --- 東大松尾研究室のWRS2020パートナーロボットチャレンジへの挑戦
AIのラボからロボティクスへ --- 東大松尾研究室のWRS2020パートナーロボットチャレンジへの挑戦
Tatsuya Matsushima
 
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
Kazuyuki Miyazawa
 
仮想脳「NeuroAI」の裏側 & 企画発表(NTTデータ テクノロジーカンファレンス 2020 発表資料)
仮想脳「NeuroAI」の裏側 & 企画発表(NTTデータ テクノロジーカンファレンス 2020 発表資料)仮想脳「NeuroAI」の裏側 & 企画発表(NTTデータ テクノロジーカンファレンス 2020 発表資料)
仮想脳「NeuroAI」の裏側 & 企画発表(NTTデータ テクノロジーカンファレンス 2020 発表資料)
NTT DATA Technology & Innovation
 
社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs
社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs
社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs
Kazuhiro Ota
 
Machine Learning at LINE
Machine Learning at LINEMachine Learning at LINE
Machine Learning at LINE
LINE Corporation
 
TFLite_and_PyTorch_Mobile
TFLite_and_PyTorch_MobileTFLite_and_PyTorch_Mobile
TFLite_and_PyTorch_Mobile
yusuke shibui
 
SSII2018TS: コンピュテーショナルイルミネーション
SSII2018TS: コンピュテーショナルイルミネーションSSII2018TS: コンピュテーショナルイルミネーション
SSII2018TS: コンピュテーショナルイルミネーション
SSII
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
 
2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)
2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)
2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)
智啓 出川
 
VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...
VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...
VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...
Kazuyuki Miyazawa
 
[DL輪読会]Monaural Audio Source Separationusing Variational Autoencoders
[DL輪読会]Monaural Audio Source Separationusing Variational Autoencoders[DL輪読会]Monaural Audio Source Separationusing Variational Autoencoders
[DL輪読会]Monaural Audio Source Separationusing Variational Autoencoders
Deep Learning JP
 
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
Preferred Networks
 

What's hot (20)

第7回WBAシンポジウム:松嶋達也〜自己紹介と論点の提示〜スケーラブルなロボット学習システムに向けて
第7回WBAシンポジウム:松嶋達也〜自己紹介と論点の提示〜スケーラブルなロボット学習システムに向けて第7回WBAシンポジウム:松嶋達也〜自己紹介と論点の提示〜スケーラブルなロボット学習システムに向けて
第7回WBAシンポジウム:松嶋達也〜自己紹介と論点の提示〜スケーラブルなロボット学習システムに向けて
 
【論文紹介】U-GAT-IT
【論文紹介】U-GAT-IT【論文紹介】U-GAT-IT
【論文紹介】U-GAT-IT
 
AlphaGoのしくみ
AlphaGoのしくみAlphaGoのしくみ
AlphaGoのしくみ
 
#FTMA15 第一回 鬼コース 全PDF
#FTMA15 第一回 鬼コース 全PDF#FTMA15 第一回 鬼コース 全PDF
#FTMA15 第一回 鬼コース 全PDF
 
量子コンピュータの最新動向(2020年1月時点)
量子コンピュータの最新動向(2020年1月時点)量子コンピュータの最新動向(2020年1月時点)
量子コンピュータの最新動向(2020年1月時点)
 
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
 
プレゼンの技術
プレゼンの技術プレゼンの技術
プレゼンの技術
 
AIのラボからロボティクスへ --- 東大松尾研究室のWRS2020パートナーロボットチャレンジへの挑戦
AIのラボからロボティクスへ --- 東大松尾研究室のWRS2020パートナーロボットチャレンジへの挑戦AIのラボからロボティクスへ --- 東大松尾研究室のWRS2020パートナーロボットチャレンジへの挑戦
AIのラボからロボティクスへ --- 東大松尾研究室のWRS2020パートナーロボットチャレンジへの挑戦
 
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
 
仮想脳「NeuroAI」の裏側 & 企画発表(NTTデータ テクノロジーカンファレンス 2020 発表資料)
仮想脳「NeuroAI」の裏側 & 企画発表(NTTデータ テクノロジーカンファレンス 2020 発表資料)仮想脳「NeuroAI」の裏側 & 企画発表(NTTデータ テクノロジーカンファレンス 2020 発表資料)
仮想脳「NeuroAI」の裏側 & 企画発表(NTTデータ テクノロジーカンファレンス 2020 発表資料)
 
社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs
社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs
社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs
 
Machine Learning at LINE
Machine Learning at LINEMachine Learning at LINE
Machine Learning at LINE
 
TFLite_and_PyTorch_Mobile
TFLite_and_PyTorch_MobileTFLite_and_PyTorch_Mobile
TFLite_and_PyTorch_Mobile
 
SSII2018TS: コンピュテーショナルイルミネーション
SSII2018TS: コンピュテーショナルイルミネーションSSII2018TS: コンピュテーショナルイルミネーション
SSII2018TS: コンピュテーショナルイルミネーション
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)
2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)
2015年度先端GPGPUシミュレーション工学特論 第7回 総和計算(Atomic演算)
 
VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...
VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...
VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...
 
[DL輪読会]Monaural Audio Source Separationusing Variational Autoencoders
[DL輪読会]Monaural Audio Source Separationusing Variational Autoencoders[DL輪読会]Monaural Audio Source Separationusing Variational Autoencoders
[DL輪読会]Monaural Audio Source Separationusing Variational Autoencoders
 
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
 

Viewers also liked

재무상담안내
재무상담안내재무상담안내
재무상담안내
Yeojin Choi
 
Dimensionality Reduction
Dimensionality ReductionDimensionality Reduction
Dimensionality Reduction
mrizwan969
 
패스트캠퍼스 -Dss5 - Personal Project
패스트캠퍼스 -Dss5 - Personal Project패스트캠퍼스 -Dss5 - Personal Project
패스트캠퍼스 -Dss5 - Personal Project
ha tae
 
[패스트캠퍼스] 야구 선수 연봉 예측
[패스트캠퍼스] 야구 선수 연봉 예측[패스트캠퍼스] 야구 선수 연봉 예측
[패스트캠퍼스] 야구 선수 연봉 예측
Giwook Lee
 
Css3 transforms
Css3 transformsCss3 transforms
Css3 transforms
SangHun Lee
 
연구업적 데이터베이스를 활용한 빅데이터 분석시스템 (16 sep2014)
연구업적 데이터베이스를 활용한 빅데이터 분석시스템 (16 sep2014)연구업적 데이터베이스를 활용한 빅데이터 분석시스템 (16 sep2014)
연구업적 데이터베이스를 활용한 빅데이터 분석시스템 (16 sep2014)
Han Woo PARK
 
차원축소 훑어보기 (PCA, SVD, NMF)
차원축소 훑어보기 (PCA, SVD, NMF)차원축소 훑어보기 (PCA, SVD, NMF)
차원축소 훑어보기 (PCA, SVD, NMF)
beom kyun choi
 
Basic Understanding of the Deep
Basic Understanding of the DeepBasic Understanding of the Deep
Basic Understanding of the Deep
Mad Scientists
 
3.unsupervised learing
3.unsupervised learing3.unsupervised learing
3.unsupervised learing
Haesun Park
 

Viewers also liked (9)

재무상담안내
재무상담안내재무상담안내
재무상담안내
 
Dimensionality Reduction
Dimensionality ReductionDimensionality Reduction
Dimensionality Reduction
 
패스트캠퍼스 -Dss5 - Personal Project
패스트캠퍼스 -Dss5 - Personal Project패스트캠퍼스 -Dss5 - Personal Project
패스트캠퍼스 -Dss5 - Personal Project
 
[패스트캠퍼스] 야구 선수 연봉 예측
[패스트캠퍼스] 야구 선수 연봉 예측[패스트캠퍼스] 야구 선수 연봉 예측
[패스트캠퍼스] 야구 선수 연봉 예측
 
Css3 transforms
Css3 transformsCss3 transforms
Css3 transforms
 
연구업적 데이터베이스를 활용한 빅데이터 분석시스템 (16 sep2014)
연구업적 데이터베이스를 활용한 빅데이터 분석시스템 (16 sep2014)연구업적 데이터베이스를 활용한 빅데이터 분석시스템 (16 sep2014)
연구업적 데이터베이스를 활용한 빅데이터 분석시스템 (16 sep2014)
 
차원축소 훑어보기 (PCA, SVD, NMF)
차원축소 훑어보기 (PCA, SVD, NMF)차원축소 훑어보기 (PCA, SVD, NMF)
차원축소 훑어보기 (PCA, SVD, NMF)
 
Basic Understanding of the Deep
Basic Understanding of the DeepBasic Understanding of the Deep
Basic Understanding of the Deep
 
3.unsupervised learing
3.unsupervised learing3.unsupervised learing
3.unsupervised learing
 

Similar to 머피's 머신러닝: Latent Linear Model

머피's 머신러닝: Latent Linear Model
머피's 머신러닝: Latent Linear Model머피's 머신러닝: Latent Linear Model
머피's 머신러닝: Latent Linear ModelJungkyu Lee
 
Support Vector Machine Tutorial 한국어
Support Vector Machine Tutorial 한국어Support Vector Machine Tutorial 한국어
Support Vector Machine Tutorial 한국어
Jungkyu Lee
 
알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder
홍배 김
 
Eigendecomposition and pca
Eigendecomposition and pcaEigendecomposition and pca
Eigendecomposition and pca
Jinhwan Suk
 
Wasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 IWasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 I
Sungbin Lim
 
XAI recent researches
XAI recent researchesXAI recent researches
XAI recent researches
seungwoo kim
 
Chapter 2, 선형 변환과 행렬 1/2
Chapter 2, 선형 변환과 행렬 1/2Chapter 2, 선형 변환과 행렬 1/2
Chapter 2, 선형 변환과 행렬 1/2
Thisisone Lee
 
7. Linear Regression
7. Linear Regression7. Linear Regression
7. Linear Regression
Jungkyu Lee
 
Flow based generative models
Flow based generative modelsFlow based generative models
Flow based generative models
수철 박
 
머피의 머신러닝 : Gaussian Processes
머피의 머신러닝 : Gaussian Processes머피의 머신러닝 : Gaussian Processes
머피의 머신러닝 : Gaussian ProcessesJungkyu Lee
 
(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reduction(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reduction
Haesun Park
 
07. PCA
07. PCA07. PCA
07. PCA
Jeonghun Yoon
 
Chapter 16 structured probabilistic models for deep learning - 1
Chapter 16 structured probabilistic models for deep learning - 1Chapter 16 structured probabilistic models for deep learning - 1
Chapter 16 structured probabilistic models for deep learning - 1
KyeongUkJang
 
[기초수학] 미분 적분학
[기초수학] 미분 적분학[기초수학] 미분 적분학
[기초수학] 미분 적분학KyeongWon Koo
 
Chapter 6 Deep feedforward networks - 1
Chapter 6 Deep feedforward networks - 1Chapter 6 Deep feedforward networks - 1
Chapter 6 Deep feedforward networks - 1
KyeongUkJang
 
Gmm to vgmm
Gmm to vgmmGmm to vgmm
Gmm to vgmm
수철 박
 
02.선형변환과 행렬
02.선형변환과 행렬02.선형변환과 행렬
02.선형변환과 행렬JaeHong Park
 
Tda jisu kim
Tda jisu kimTda jisu kim
Tda jisu kim
NAVER Engineering
 
[이산수학]4 관계, 함수 및 행렬
[이산수학]4 관계, 함수 및 행렬[이산수학]4 관계, 함수 및 행렬
[이산수학]4 관계, 함수 및 행렬종빈 오
 
신경망 첫걸음 - 한빛미디어 요약
신경망 첫걸음 - 한빛미디어 요약신경망 첫걸음 - 한빛미디어 요약
신경망 첫걸음 - 한빛미디어 요약
고포릿 default
 

Similar to 머피's 머신러닝: Latent Linear Model (20)

머피's 머신러닝: Latent Linear Model
머피's 머신러닝: Latent Linear Model머피's 머신러닝: Latent Linear Model
머피's 머신러닝: Latent Linear Model
 
Support Vector Machine Tutorial 한국어
Support Vector Machine Tutorial 한국어Support Vector Machine Tutorial 한국어
Support Vector Machine Tutorial 한국어
 
알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder
 
Eigendecomposition and pca
Eigendecomposition and pcaEigendecomposition and pca
Eigendecomposition and pca
 
Wasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 IWasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 I
 
XAI recent researches
XAI recent researchesXAI recent researches
XAI recent researches
 
Chapter 2, 선형 변환과 행렬 1/2
Chapter 2, 선형 변환과 행렬 1/2Chapter 2, 선형 변환과 행렬 1/2
Chapter 2, 선형 변환과 행렬 1/2
 
7. Linear Regression
7. Linear Regression7. Linear Regression
7. Linear Regression
 
Flow based generative models
Flow based generative modelsFlow based generative models
Flow based generative models
 
머피의 머신러닝 : Gaussian Processes
머피의 머신러닝 : Gaussian Processes머피의 머신러닝 : Gaussian Processes
머피의 머신러닝 : Gaussian Processes
 
(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reduction(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reduction
 
07. PCA
07. PCA07. PCA
07. PCA
 
Chapter 16 structured probabilistic models for deep learning - 1
Chapter 16 structured probabilistic models for deep learning - 1Chapter 16 structured probabilistic models for deep learning - 1
Chapter 16 structured probabilistic models for deep learning - 1
 
[기초수학] 미분 적분학
[기초수학] 미분 적분학[기초수학] 미분 적분학
[기초수학] 미분 적분학
 
Chapter 6 Deep feedforward networks - 1
Chapter 6 Deep feedforward networks - 1Chapter 6 Deep feedforward networks - 1
Chapter 6 Deep feedforward networks - 1
 
Gmm to vgmm
Gmm to vgmmGmm to vgmm
Gmm to vgmm
 
02.선형변환과 행렬
02.선형변환과 행렬02.선형변환과 행렬
02.선형변환과 행렬
 
Tda jisu kim
Tda jisu kimTda jisu kim
Tda jisu kim
 
[이산수학]4 관계, 함수 및 행렬
[이산수학]4 관계, 함수 및 행렬[이산수학]4 관계, 함수 및 행렬
[이산수학]4 관계, 함수 및 행렬
 
신경망 첫걸음 - 한빛미디어 요약
신경망 첫걸음 - 한빛미디어 요약신경망 첫걸음 - 한빛미디어 요약
신경망 첫걸음 - 한빛미디어 요약
 

More from Jungkyu Lee

8. Logistic Regression
8. Logistic Regression8. Logistic Regression
8. Logistic Regression
Jungkyu Lee
 
4. Gaussian Model
4. Gaussian Model4. Gaussian Model
4. Gaussian Model
Jungkyu Lee
 
3 Generative models for discrete data
3 Generative models for discrete data3 Generative models for discrete data
3 Generative models for discrete data
Jungkyu Lee
 
From A Neural Probalistic Language Model to Word2vec
From A Neural Probalistic Language Model to Word2vecFrom A Neural Probalistic Language Model to Word2vec
From A Neural Probalistic Language Model to Word2vec
Jungkyu Lee
 
머피의 머신러닝: 17장 Markov Chain and HMM
머피의 머신러닝: 17장  Markov Chain and HMM머피의 머신러닝: 17장  Markov Chain and HMM
머피의 머신러닝: 17장 Markov Chain and HMMJungkyu Lee
 
Murpy's Machine Learing: 10. Directed Graphical Model
Murpy's Machine Learing: 10. Directed Graphical ModelMurpy's Machine Learing: 10. Directed Graphical Model
Murpy's Machine Learing: 10. Directed Graphical ModelJungkyu Lee
 
Murpy's Machine Learning 9. Generalize Linear Model
Murpy's Machine Learning 9. Generalize Linear ModelMurpy's Machine Learning 9. Generalize Linear Model
Murpy's Machine Learning 9. Generalize Linear ModelJungkyu Lee
 
Murpy's Machine Learning:14. Kernel
Murpy's Machine Learning:14. KernelMurpy's Machine Learning:14. Kernel
Murpy's Machine Learning:14. KernelJungkyu Lee
 
머피의 머신러닝 13 Sparse Linear Model
머피의 머신러닝 13 Sparse Linear Model머피의 머신러닝 13 Sparse Linear Model
머피의 머신러닝 13 Sparse Linear ModelJungkyu Lee
 
머피의 머신러닝: Undirencted Graphical Model
머피의 머신러닝: Undirencted Graphical Model머피의 머신러닝: Undirencted Graphical Model
머피의 머신러닝: Undirencted Graphical ModelJungkyu Lee
 
머피's 머신러닝, Mixture model and EM algorithm
머피's 머신러닝, Mixture model and EM algorithm머피's 머신러닝, Mixture model and EM algorithm
머피's 머신러닝, Mixture model and EM algorithm
Jungkyu Lee
 
파이널 판타지 3 루트 공략
파이널 판타지 3 루트 공략파이널 판타지 3 루트 공략
파이널 판타지 3 루트 공략Jungkyu Lee
 
1. boolean 검색
1. boolean 검색1. boolean 검색
1. boolean 검색Jungkyu Lee
 
ThinkBayes: chapter 13  simulation
ThinkBayes: chapter 13  simulationThinkBayes: chapter 13  simulation
ThinkBayes: chapter 13  simulationJungkyu Lee
 
ThinkBayes: Chapter 9 two_dimensions
ThinkBayes: Chapter 9 two_dimensionsThinkBayes: Chapter 9 two_dimensions
ThinkBayes: Chapter 9 two_dimensionsJungkyu Lee
 
Jensen's inequality, EM 알고리즘
Jensen's inequality, EM 알고리즘 Jensen's inequality, EM 알고리즘
Jensen's inequality, EM 알고리즘
Jungkyu Lee
 
앙상블 학습 기반의 추천시스템 개발
앙상블 학습 기반의 추천시스템 개발앙상블 학습 기반의 추천시스템 개발
앙상블 학습 기반의 추천시스템 개발Jungkyu Lee
 
TETRIS AI WITH REINFORCEMENT LEARNING
TETRIS AI WITH REINFORCEMENT LEARNINGTETRIS AI WITH REINFORCEMENT LEARNING
TETRIS AI WITH REINFORCEMENT LEARNING
Jungkyu Lee
 
Eigenvalues of regular graphs
Eigenvalues of regular graphsEigenvalues of regular graphs
Eigenvalues of regular graphs
Jungkyu Lee
 

More from Jungkyu Lee (19)

8. Logistic Regression
8. Logistic Regression8. Logistic Regression
8. Logistic Regression
 
4. Gaussian Model
4. Gaussian Model4. Gaussian Model
4. Gaussian Model
 
3 Generative models for discrete data
3 Generative models for discrete data3 Generative models for discrete data
3 Generative models for discrete data
 
From A Neural Probalistic Language Model to Word2vec
From A Neural Probalistic Language Model to Word2vecFrom A Neural Probalistic Language Model to Word2vec
From A Neural Probalistic Language Model to Word2vec
 
머피의 머신러닝: 17장 Markov Chain and HMM
머피의 머신러닝: 17장  Markov Chain and HMM머피의 머신러닝: 17장  Markov Chain and HMM
머피의 머신러닝: 17장 Markov Chain and HMM
 
Murpy's Machine Learing: 10. Directed Graphical Model
Murpy's Machine Learing: 10. Directed Graphical ModelMurpy's Machine Learing: 10. Directed Graphical Model
Murpy's Machine Learing: 10. Directed Graphical Model
 
Murpy's Machine Learning 9. Generalize Linear Model
Murpy's Machine Learning 9. Generalize Linear ModelMurpy's Machine Learning 9. Generalize Linear Model
Murpy's Machine Learning 9. Generalize Linear Model
 
Murpy's Machine Learning:14. Kernel
Murpy's Machine Learning:14. KernelMurpy's Machine Learning:14. Kernel
Murpy's Machine Learning:14. Kernel
 
머피의 머신러닝 13 Sparse Linear Model
머피의 머신러닝 13 Sparse Linear Model머피의 머신러닝 13 Sparse Linear Model
머피의 머신러닝 13 Sparse Linear Model
 
머피의 머신러닝: Undirencted Graphical Model
머피의 머신러닝: Undirencted Graphical Model머피의 머신러닝: Undirencted Graphical Model
머피의 머신러닝: Undirencted Graphical Model
 
머피's 머신러닝, Mixture model and EM algorithm
머피's 머신러닝, Mixture model and EM algorithm머피's 머신러닝, Mixture model and EM algorithm
머피's 머신러닝, Mixture model and EM algorithm
 
파이널 판타지 3 루트 공략
파이널 판타지 3 루트 공략파이널 판타지 3 루트 공략
파이널 판타지 3 루트 공략
 
1. boolean 검색
1. boolean 검색1. boolean 검색
1. boolean 검색
 
ThinkBayes: chapter 13  simulation
ThinkBayes: chapter 13  simulationThinkBayes: chapter 13  simulation
ThinkBayes: chapter 13  simulation
 
ThinkBayes: Chapter 9 two_dimensions
ThinkBayes: Chapter 9 two_dimensionsThinkBayes: Chapter 9 two_dimensions
ThinkBayes: Chapter 9 two_dimensions
 
Jensen's inequality, EM 알고리즘
Jensen's inequality, EM 알고리즘 Jensen's inequality, EM 알고리즘
Jensen's inequality, EM 알고리즘
 
앙상블 학습 기반의 추천시스템 개발
앙상블 학습 기반의 추천시스템 개발앙상블 학습 기반의 추천시스템 개발
앙상블 학습 기반의 추천시스템 개발
 
TETRIS AI WITH REINFORCEMENT LEARNING
TETRIS AI WITH REINFORCEMENT LEARNINGTETRIS AI WITH REINFORCEMENT LEARNING
TETRIS AI WITH REINFORCEMENT LEARNING
 
Eigenvalues of regular graphs
Eigenvalues of regular graphsEigenvalues of regular graphs
Eigenvalues of regular graphs
 

머피's 머신러닝: Latent Linear Model

  • 2. Factor Analysis : intuition • 11차원(차의 특성)의 데이터셋을 2차원(Component1, Component2)으로 차원축소(빨간색점) • 사실은 한점으로 고정되는 게 아니라 확률분포로 나옴 • 각 특성의 유닛벡터를 (1,0,0,0,0,0,0,0,0,0,0), (0,1,0,0,0,0,0,0,0,0,0)를 FA로 사영하면 comp1에 가까운 특성, comp2에 가까운 특성을 알 수 있음
  • 3. 12.1 Factor analysis – model spec • An alternative is to use a vector of real-valued latent variables,zi ∈R • where W is a D×L matrix, known as the factor loading matrix, and Ψ is a D×D covariance matrix. • We take Ψ to be diagonal, since the whole point of the model is to “force” zi to explain the correlation, rather than “baking it in” to the observation’s covariance. • z가 어느 한점으로 고정된 상태에서는 변수간의 상관관계는 없다고 가정 • The special case in which Ψ=σ2I is called probabilistic principal components analysis or PPCA. x의 정보들이 완전히 독립이 아니라서 압축의 여지가 있다는 것 x는 어떤 작은 차원의 latent한 random variable을 선형변환 시킨 것이다
  • 4. 12.1.1 FA is a low rank parameterization of an MVN • FA can be thought of as a way of specifying a joint density model on x using a small number of parameters. • MVN을 표현하는데, 원래는 공분산를 표현하기 위해 O(D*D)의 parameter가 필요한데, latent variable을 가정하면 O(D*L)의 parameter만 있으면 된다
  • 5. 12.1 Factor analysis - visualize • The generative process, where L=1, D=2 and Ψ is diagonal, is illustrated in Figure 12.1. • We take an isotropic Gaussian “spray can” and slide it along the 1d line defined by wzi +μ. • This induces an ellongated (and hence correlated) Gaussian in 2d. 초록색의 2차원 정규분포는 1차원 정규분포를 가진 z를 W로 선형변환한 것으로도 compact하게 표 현할 수 있다.
  • 6. 12.1.2 Inference of the latent factors • latent factors z will reveal something interesting about the data. xi(D차원)를 넣어서 L차원으로 매핑시킬 수 잇음 training set을 D차원에서 L차원으로 차원 축소
  • 7. 12.1.2 Inference of the latent factors D =11차원(엔진크기, 실린더 수, 가격,...), N =328 개의 example(자동차 종류), L = 2 • 밑에 공식에 의해 각 피쳐(엔진크기, 실린더 수,.. 11개)의 유닛 벡터 e1=(1,0,...,0), e2=(0,1,0,...,0)를 저차원 공간 에 사영한 것이 파란색 선 (biplot이라고 함) • 각 데이터 X도 사영시킴(빨간색) L*L*(L*D*D*D*D*1 + L*L*L*1) = L*1 • biplot 가까이 있는 빨간색점(차량)이 그 특성을 잘 가지고 있는 차 training set을 D차원에서 L차원으로 차원 축소 (빨간색 점)
  • 8. 12.1.4 Mixtures of factor analysers • 각 데이터 Xi가 k개의 FA에서 나왔다는 모델(GMM과 비슷) • let [the k’th linear subspace of dimensionality Lk]] be represented by Wk, for k=1:K. • Suppose we have a latent indicator qi ∈{1,...,K} specifying which subspace we should use to generate the data. • We then sample zi from a Gaussian prior and pass it through the Wk matrix (where k=qi), and add noise. 어떤 FA를 쓸 것인가를 할당하는 변수 )
  • 9. 12.1.5 EM for factor analysis models Expected log likelihood ESS(Expected Sufficient Statistics) MLE를 하는데 필요한 데이터의 충분통계량 모델 parameter W,PHI,MU를 알면 추정할 수 있 다. 모델 parameter는 t-1의 것을 쓴다 초기에는 랜덤
  • 10. 12.1.5 EM for factor analysis models • E- step • M-step MLE로 구하면
  • 11. Eigenvector, Eigenvalue • 어떤 선형 변환(행렬)의 고유벡터는 변환 후에도 변하지 않거나 그 크기만이 변하고 방향은 일정한 벡터를 가 리킨다. • 어떤 고유벡터의 고유값은 변환 전과 후의 고유벡터의 크기 비율이다. 선형변환 고유값 고유벡터
  • 12. PCA: intuition • 차원을 줄였을 때, 사영된 데이터의 분산이 최대가 되는 것이 좋다 • FA의 special case인 PCA가 왜 이런 결과를 보이는지 볼 것이다
  • 13. 12.2 Principal components analysis (PCA) • Consider the FA model where we constrain Ψ=σ2I, and W to be orthonormal. • It can be shown (Tipping and Bishop 1999) that, as σ2 →0, this model reduces to classical (nonprobabilistic)principal components analysis( PCA), • The version where σ2 > 0 is known as probabilistic PCA(PPCA) 즉 W의 역행렬은 W’
  • 14. • zi를 선형 변환(W)으로 보낸 hat{xi}이 xi와의 에러가 최소화되는 것이 목적 함수, 단 W는 orthonomal 가정 • 이 최적의 W는 X’*X의 공분산 행렬의 eivenvector를 대응하는 eigenvalue의 크기 순으로 붙인 것
  • 15. proof sketch • reconstruction error를 줄이는 W를 구하는 것 = W 로 사영되는 데이터 z의 분산이 최대가 되는 W를 구하는 것 • W로 사영되는 데이터z의 분산이 최대가 되는 W를 lagrange multiplier 최적화로 구해본다 • W로 사영되는 데이터z의 분산이 최대가 되는 W를 구해봤더니 데이터의 empirical covariance matrix X’X의 [첫 번째, 두번째, 세번쨰.. eigenvector]
  • 16. proof of PCA • wj ∈RD to denote the j’th principal direction • xi ∈RD to denote the i’th high-dimensional observation, • zi ∈RL to denote the i’th low-dimensional representation • Let us start by estimating the best 1d solution,w1 ∈RD, and the corresponding projected points˜z1∈RN. • So the optimal reconstruction weights are obtained by orthogonally projecting the data onto the first principal direction
  • 17. proof of PCA zi가 첫번째 latent 차원 zi = w1xi로 사 영된 데이터 포인트의 분산 • 목적함수가 error를 최소화하는 것에서 사영된 점들의 분산을 최대화하는 것으로 바뀌었다 • 분산이 최대화 될수록 J(w1)가 작아짐 X의 공분산 행렬 direction that maximizes the variance is an eigenvector of the covariance matrix.
  • 18. proof of PCA eigenvalue는 eigenvector에 사영된 점들의 분산 Optimizing wrt w1 and z1 gives the same solution as before. The proof continues in this way. (Formally one can use induction.)
  • 19. 12.2.3 Singular value decomposition (SVD) • PCA는 SVD와 밀접한 관계가 있다 • SVD를 돌리면, PCA의 해 W를 구할 수 있다 • PCA는 결국 truncated SVD approximation와 같다 thin SVD • SVD는 행렬 분해 알고리즘으로, 어떤 큰 행렬을 세 가지 행렬로 쪼갠다 • truncated SVD는 자신의 원하는만큼의 singular value만 쓴다. • singular value의 정체가 뭔지는 뒤에 설명할 것이다
  • 20. SVD: example truncated SVD sigular value 한개,두개,세개 쓴 근사치
  • 21. SVD: example • 데이터 압축에 쓰일수 있다 • 이미지 100*200 = 20000 parameters, rank 20 tSVD의 경우, 100*20(U) + 20(S) + 20*200(V’) = 6020 parameters
  • 22. 12.2.3 Singular value decomposition (SVD) PCA의 해 W는 XTX의 eigenvectors와 같으므로, W=V svd를 돌리면  pca의 해가 나온다
  • 23. example • 데이터 생성 • 공분산 행렬의 eivenvalue와 eigenvector • X의 svd 결과
  • 24. PCA는 결국 truncated SVD approximation와 같다 • 결론적으로, X= USV’에서 US(N*L 행렬)는 PCA에서 X(N*D 행렬)가 W에 사영된 차원 축소버전이라고 볼 수 있다
  • 25. wrap up • latent variable(zi)을 선형변환(W)한 것이 xi와 가장 가까이 되는 선형변환을 찾고 싶다 • 이 선형변환을 찾는 문제는 결국 X를 사영시켰을 때 그 점들이 가장 큰 분산을 갖는 축들을 찾는 것이다 • 그 가장 큰 분산을 갖는 축은 X의 공분산 행렬(X’X)의 가장 큰 eigenvalue값들을 갖는 eigenvector들이다. • truncated SVD는 X 행렬을 세가지 행렬(USV’)로 분해하여 low rank appoximation을 하는데 • V는 PCA의 해 W와 같다 • US는 PCA의 X가 W에 사영된 점 Z와 같다
  • 26. 12.2.4 Probabilistic PCA • x의 평균은 0, Ψ=σ2I 이고 W가 orthogonal한 FA를 생각하자. MLE로 구하면,
  • 27. 12.2.5 EM algorithm for PCA • PCA에서 Estep은 latent 변수 Z를 추론해 내는 것이고 FA EM에서 etep에서의 posterior의 평균을 쓴다 X가 W가 span하는 공간에 사영된 것 확률모델이 아니라 공분산 없다고 침 행렬 표현
  • 28. 12.2.5 EM algorithm for PCA • 파란색 막대(W)에 용수철이 동그라미(Z)에 달려있고, 그걸 초록색 위치(X)만큼 잡아당기고 있다고 해보자 • E-step은 스프링의 장력(sum of squared residual에 비례)이 최소화 되도록 동그라미를 옮긴다 • M-step은 막대 위의 동그라미 위치는 고정한 상태에서 장력이 최소화되도록 막대를 회전시킨다 • 축이 데이터 X의 가장 큰 분산의 위치에 근접하게 됨을 알 수 잇다 Wt-1
  • 29. 12.2.5 EM algorithm for PCA • EM의 장점 • EM can be faster • EM can be implemented in an online fashion, i.e., we can update our estimate of W as the data streams in.
  • 30. 12.3.1 Model selection for FA/PPCA 12.3.2 Model selection for PCA
  • 31. Conclusion • FA는 정규분포의 x 을(D*D paramters), 더 작은 parameter 갯수(D*L)로 표현한다. • PCA는 FA의 special 케이스이다 • PCA문제 의 해 W는 Z로 사영되는 데이터의 분산이 최대가 되게 하고 가장 큰 eigenvalue에 대응하는 eigenvectors이다 • SVD (X = USV’)에서 V는 X의 공분산 행렬의 eigenvectors이다. 그러므로 W=V