10. 3. Related Works
1.IntroandRelatedWorks
Unsupervised Representation Learning과 관련해서 RBM, VAE, DCGAN 등이
Representation을 배울 수 있다는 것을 보여줌
대부분의 이전 연구들은 Representation을 disentangle할 때에 Supervised한 접근
을 시도함
Autoencoder, VAE, RBM에 기초하여 Supervision을 완화하여 Representation
Disentangle을 하려는 다양한 접근방법이 있었음
연구할 당시 Unsupervised형태로 Disentangled Representation을 학습한 모델은
hossRBM이 유일했음
11. 4. 논의
1.IntroandRelatedWorks
Well Posed Problem
1)Existence : For all suitable data, a solution exists
2)Uniqueness : For all suitable data, the solution is exists
3)Stability : The solution depends continuously on the data.
1페이지두번째문단첫번째문장
1페이지두번째문단마지막문장
15. 2. Mutual Information for Inducing Latent Codes
2.InfoGAN모델
기존 GAN에서는 Input Noise Vector Z에 어떠한 제한도 부과하지 않아서
Entangled한 형태로 사용되었음 -> 이로 인해 Z의 각각 dimension이 데이터의
semantic feature에 대응되지 않음
Z를 바로 사용하지 않고 두 개로 분리함( Incompressible Noise + Latent Code)
각각의 latent variable에 대한 distribution은 factored distribution을 갖는다고 가정
예를 들어 MNIST에서 c1은 1-9 digit type에 대응되도록 하고 c2, c3은 회전이나 두
께에 대한 continuous한 정보를 대응시킴
16. 2. Mutual Information for Inducing Latent Codes
2.InfoGAN모델
일반적인 GAN에선 Latent Code를 같이 Generator에 제공하면 그냥 무시한 형태
의 해를 찾아버릴 수 있음.
이것을 방지하기 위해 Generator G(z, c)와 Latent Code c 사이의 상호 정보량을 최
대화 하는 Regularization을 제시함
그렇게 되면𝑥~𝑃𝐺 𝑥 에 대해 𝑃𝐺 𝑐 𝑥 의 엔트로피가 작아지고 불확실성이 줄어듬
Generation 과정 중에 Latent Code c의 정보가 소실되지 않기 위해 Objective
function에 상호 정보량 관련 Mutual Information Term을 추가한다.
17. 3.Variational Mutual Information Maximization
2.InfoGAN모델
그런데 I(c;G(z,c)) 를 바로 최대화하려면 Posterior 𝑃 𝑐 𝑥 를 계산해야 함
즉, 바로 I(c; G(z, c))를 계산하기 어렵기 때문에 Lower Bound를 구하여 사용하는
테크닉(Variational Mutual Information Maximization)을 이용함
Auxiliary distribution 𝑄 𝑐 𝑥 를 통해서 𝑃 𝑐 𝑥 를 근사시킴
𝐼 c; 𝐺 z, 𝑐 = 𝐻 𝑐 − 𝐻 𝑐 𝑥) = 𝑃 𝑐 log
1
𝑃(𝑐)
+ 𝑃 c,𝑥 log
1
𝑃 c 𝑥
18. 3.Variational Mutual Information Maximization
2.InfoGAN모델
𝑃 𝑐 𝑥 에 대한 계산은 피했지만 여전히 𝑃 𝑐 𝑥 으로부터 샘플링을 해야함
Lemma 5.1 을 사용해서 𝐿𝐼 G,𝑄 를 다음과 같이 바꿀 수 있다.
19. 3.Variational Mutual Information Maximization
2.InfoGAN모델
Lower bound 가𝑃 𝑐 𝑥 와 관련 없고 G에 대해 Q를 최대화하는 문제가 됨
기존 GAN의 학습 과정에 큰 변화없이 Lower bound를 더할 수 있음
따라서 Info GAN은 다음과 같은 Mutual Information Regularization이 추가된
minimax 게임 문제는 풀게 됨
28. 1.Auxiliary Distribution Q
4.구현
Q를 구현하기 위해서 Recognition Network Q를 추가로 둔다.
Q는 Discriminator와 Convolutional layer를 공유함(Discriminator 뒤쪽에 Q를
연결하여 만든다)
마지막단에 Q(c | x)를 출력하는 Fully Connected Layer가 있다.
𝐿𝐼 G,𝑄 는 항상 Normal GAN보다 빨리 수렴하고 Computation Cost가 많이
추가 되는게 아니다
29. 1.Auxiliary Distribution Q
4.구현
Discriminator의 레이어를 거치다가 Discriminator는 아웃풋을 따로 내놓음
Q는 Leaky Relu 다음에 연결되어서 추가로 Fully Connected가 연결됨
31. 2. Latent Code and Q distribution
4.구현
Categorical Latent Code 𝑐𝑖 에 대해선 조건부 분포 𝑄 𝑐𝑖 𝑥 를 표현하기 위해
Soft Max를 사용함
Continuous Latent Code 𝑐𝒋 에 대해선 Posterior 에 따라서 𝑄 𝑐𝑖 𝑥 를 다양하
게 표현할 수 있음
이번 논문에선 𝑄 𝑐𝑖 𝑥 를 Factored Gaussian으로 표현해도 충분하였다
32. 3. Hyper Parameter Lambda
4.구현
Lower Bound에 대한 Regularization Hyper parameter λ 추가 되었음
Discrete Latent Code에 대해선 1로 셋팅해도 충분함
Continuous Latent Code에 대해서 1보다 더 작은 값으로 셋팅함
34. 5.결론및요약
InfoGAN이라는 Representation Learning 알고리즘을 제시함
Latent Code와 Noise Z를 분할하여 사용
Generator가 Latent Code 정보를 생성과정 중 잃지 않도록 상호 정보량
을 최대화 시키도록 함
Supervision없이도 복잡한 Datasets으로 부터 Interpretable and
Disentangled Representation을 학습할 수 있음
Representation을 학습하도록 하는 상호 정보량을 도입하는 아이디어는
VAE 같은 모델에도 적용될 수 있음
35. 6.참고자료및출처
• Representation Learning (표현학습), http://hugman.re.kr/blog/repr_learning/
• Factored Gaussian,
http://ipfs.io/ipfs/QmXoypizjW3WknFiJnKLwHCnL72vedxjQkDDP1mXWo6uco/w
iki/Gaussian_function.html/
• Differential Entropy, https://www.icg.isy.liu.se/en/courses/tsbk08/lect9.pdf
• Information Theory, Inference, and Learning Algorithms David J.C. MacKay
• 초짜 대학원생의 입장에서 이해하는 InfoGAN,
http://jaejunyoo.blogspot.com/2017/03/infogan-1.html
• 상호정보량https://en.wikipedia.org/wiki/Mutual_information
• InfoGAN—Generative Adversarial Networks Part III
https://towardsdatascience.com/infogan-generative-adversarial-networks-
part-iii-380c0c6712cd
• InfoGANTheory
https://github.com/maestrojeong/infoGAN/blob/master/Theory.ipynb
• InfoGAN: Interpretable Representation Learning by Information Maximizing
Generative Adversarial Nets
https://www.slideshare.net/ssuser06e0c5/infogan-interpretable-
representation-learning-by-information-maximizing-generative-adversarial-
nets-72268213
• InfoGAN Review https://kangbk0120.github.io/articles/2017-08/info-gan
• Deep Learning, Yoshua Bengio, Ian Goodfellow and Aaron Courville
https://www.deeplearningbook.org/version-2015-10-03/