“Toward Principled Methods for Training GANs, ICLR 2017, 172회 인용”은 Ian Goodfellow의 GAN에 대해서 근본적인 문제점을 제기합니다. 우리는 그냥 이미지를 잘 생성해 주니까 GAN을 사용하는데, 그 원리에 대해서 깊게 생각해 본 적은 없습니다. Generator와 Discriminator의 수렴에 대해서 관심을 가져본 적도 없죠. 이에 대해서 Distance부터 시작해서 수학적으로 질문을 던지는 논문입니다. 결국엔 Data Distribution이 확률 분포로써 어떻게 작용하는지에 대해서 살펴보고자 합니다. 물론 이에 대한 Solution을 제공한 것은 아닙니다만. 이러한 문제 제기는 GAN의 History에서 아주 큰 흐름을 가져왔습니다 - GAN에 대한 흔한 오해 - Kullback Leibler Divergence와 Jensen Shannon Divergence - GAN 알고리즘의 수학적 분석 - GAN을 Training하는 과정에서 발생하는 치명적인 문제점 - 문제점을 해결하기 위한 시도들 - GAN 테크트리: 그래서 무슨 GAN을 사용할까