pix2pixで自動着色
- 2. 目次
● 結果
○ 画像
○ データセット
○ 実験の詳細
● pix2pixとは
○ AutoEncoder + GAN
■ 全体画像
○ AutoEncoderはU-Net
○ GANはPatchGAN
- 6. 実験の詳細
● 1epoch = 400画像しかつかっていない
● 200epoch
● 手元のGTX1060 6Gで3時間30分
● 簡単なタスクを選んだとはいえ、GANにしては非常に安定しており、収束が
速い
● pix2pixすごい!
- 24. AutoEncoder vs pix2pix
● pix2pixではAutoEncoderで使われていたL1 LossをGANに置き換えた
ところがキモっぽい
● L1 Lossは画素ごとの誤差なので、Gが汎化するためにはぼやけた画
像を出力したほうが有利
● GANならぼやけた画像を簡単に見破り、GのLossが上がるため、Gは
鮮明な画像を出力するようになる
- 25. L1 Loss vs PatchGAN
● L1+GANのLossが優秀
● あわせ技
● 今回はLoss(G)=Loss(GAN)+100*Loss(L1)
- 26. 資料
● pix2pix paper
[1611.07004] Image-to-Image Translation with Conditional Adversarial Networks:
https://arxiv.org/abs/1611.07004
● 使用した実装
affinelayer/pix2pix-tensorflow: https://github.com/affinelayer/pix2pix-tensorflow
● ラーメンでやっている記事
Qiita: https://qiita.com/octpath/items/acaf5b4dbcb4e105a8d3