Home
Explore
Submit Search
Upload
Login
Signup
Advertisement
Check these out next
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
[DL輪読会]DropBlock: A regularization method for convolutional networks
Deep Learning JP
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
SSII2018TS: 大規模深層学習
SSII
研究効率化Tips Ver.2
cvpaper. challenge
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
1
of
34
Top clipped slide
How good is my GAN?
Sep. 5, 2018
•
0 likes
9 likes
×
Be the first to like this
Show More
•
2,161 views
views
×
Total views
0
On Slideshare
0
From embeds
0
Number of embeds
0
Download Now
Download to read offline
Report
Engineering
ECCV2018 勉強会 発表資料
Shunsuke NAKATSUKA
Follow
Advertisement
Advertisement
Advertisement
Recommended
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Fujimoto Keisuke
3.5K views
•
48 slides
モデルアーキテクチャ観点からの高速化2019
Yusuke Uchida
17.6K views
•
90 slides
畳み込みLstm
tak9029
19.8K views
•
31 slides
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
Deep Learning JP
28.1K views
•
25 slides
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
12.2K views
•
177 slides
これからの Vision & Language ~ Acadexit した4つの理由
Yoshitaka Ushiku
6.1K views
•
78 slides
More Related Content
Slideshows for you
(20)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
•
8.4K views
[DL輪読会]DropBlock: A regularization method for convolutional networks
Deep Learning JP
•
17.9K views
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
•
3.4K views
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
•
16.8K views
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
•
14K views
SSII2018TS: 大規模深層学習
SSII
•
13.2K views
研究効率化Tips Ver.2
cvpaper. challenge
•
17.4K views
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
•
3.6K views
敵対的学習に対するラデマッハ複雑度
Masa Kato
•
1.6K views
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
•
63.6K views
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
•
6K views
【DL輪読会】Scaling Laws for Neural Language Models
Deep Learning JP
•
3K views
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Koichi Hamada
•
28.2K views
Deeplearning輪読会
正志 坪坂
•
9.2K views
Action Recognitionの歴史と最新動向
Ohnishi Katsunori
•
8.4K views
0から理解するニューラルネットアーキテクチャサーチ(NAS)
MasanoriSuganuma
•
2.6K views
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
Tenki Lee
•
9.6K views
IIBMP2016 深層生成モデルによる表現学習
Preferred Networks
•
51.1K views
Transformerを雰囲気で理解する
AtsukiYamaguchi1
•
4.5K views
モデル高速化百選
Yusuke Uchida
•
24.1K views
Similar to How good is my GAN?
(20)
ICML2018 勉強会
Shunsuke NAKATSUKA
•
190 views
Icml2018読み会_overview&GANs
Kentaro Tachibana
•
2.8K views
2017.10.12 PRMU 研究会
Tomohiro Takahashi
•
3.9K views
[DL Hacks]Self-Attention Generative Adversarial Networks
Deep Learning JP
•
2.6K views
パターン認識モデル初歩の初歩
t_ichioka_sg
•
199 views
2012-03-08 MSS研究会
Kimikazu Kato
•
1.4K views
SSII2019TS: Shall We GANs? ~GANの基礎から最近の研究まで~
SSII
•
1.1K views
Learning Continuous Control Policies by Stochastic Value Gradients
mooopan
•
4.4K views
SSII2019TS: Shall We GANs? ~GANの基礎から最近の研究まで~
SSII
•
31K views
Max-Sliced Wasserstein Distance and its use for GANs
Hideki Tsunashima
•
965 views
Deep learning実装の基礎と実践
Seiya Tokui
•
105K views
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Deep Learning JP
•
13.8K views
論文紹介:Dueling network architectures for deep reinforcement learning
Kazuki Adachi
•
1.9K views
PCSJ/IMPS2021 講演資料:深層画像圧縮からAIの生成モデルへ (VAEの定量的な理論解明)
Akira Nakagawa
•
285 views
機械学習 / Deep Learning 大全 (6) Library編
Daiyu Hatakeyama
•
596 views
20181212 - PGconf.ASIA - LT
Kohei KaiGai
•
804 views
nlpaper.challenge NLP/CV交流勉強会 画像認識 7章
Takahiro Kubo
•
3.1K views
【関東GPGPU勉強会#4】GTX 1080でComputer Visionアルゴリズムを色々動かしてみる
Yasuhiro Yoshimura
•
5.3K views
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
Hiroki Nakahara
•
39.3K views
研究者のための Python による FPGA 入門
ryos36
•
14.4K views
Advertisement
More from Shunsuke NAKATSUKA
(9)
CVPR2020_ECCV2020_Anomaly_Detection_まとめ
Shunsuke NAKATSUKA
•
1.7K views
【CVPR 2019】Latent Space Autoregression for Novelty Detection
Shunsuke NAKATSUKA
•
859 views
Up to GLOW
Shunsuke NAKATSUKA
•
982 views
最新事例紹介資料 異常検知(2018.11.19)
Shunsuke NAKATSUKA
•
465 views
最新事例紹介資料 異常検知 + alpha(2018.10.15)
Shunsuke NAKATSUKA
•
386 views
最新事例紹介資料 異常検知(2018.09.20)
Shunsuke NAKATSUKA
•
531 views
最新事例紹介資料 異常検知(2018.08.24)
Shunsuke NAKATSUKA
•
186 views
最新研究紹介資料(異常検知)
Shunsuke NAKATSUKA
•
1.3K views
Tutorial of GANs in Gifu Univ
Shunsuke NAKATSUKA
•
1.5K views
Recently uploaded
(20)
AI予約サービスのMLOps事例紹介
Takashi Suzuki
•
4 views
☀️《Curtin毕业证仿真》
hjhgg1
•
2 views
AI時代の要件定義
Zenji Kanzaki
•
297 views
Data-Centric AI開発における データ生成の取り組み
Takeshi Suzuki
•
277 views
★可查可存档〖制作波恩大学文凭证书毕业证〗
tujjj
•
9 views
Jadernie tehnologii v razlicnih sferah celoveveskoj dejateljnosti.pdf
TahirSadikovi
•
0 views
☀️《SLC毕业证仿真》
hjhgg1
•
2 views
174-田纳西大学.pdf
LorettaPrice2
•
2 views
230216_AI技術共有会_園部.pdf
RyosukeSonobe
•
4 views
12莫纳什.pdf
dsadasd17
•
3 views
★可查可存档〖制作奥克兰商学院文凭证书毕业证〗
tujjj
•
2 views
APM.pptx
SatishKotwal
•
3 views
28西澳.pdf
dsadasd17
•
2 views
美国:伦斯勒理工学院毕业证办理流程
amdfot
•
2 views
☀️《UMB毕业证仿真》
hjhgg
•
2 views
103卡内基梅隆大学.pdf
LorettaPrice2
•
2 views
★可查可存档〖制作巴黎第十二大大学文凭证书毕业证〗
tujjj
•
3 views
56.桑德兰大学.pdf
dsadasd17
•
2 views
EchoyaGinhanazeSu_inoka.pptx
keink
•
2 views
★可查可存档〖制作魁北克大学文凭证书毕业证〗
mmmm282537
•
3 views
Advertisement
How good is my GAN?
How good is
my GAN ? ECCV2018 勉強会 M2 中塚俊介
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. TL;DR ◼ GANの画像生成の定量的な指標が必要 ― Inception Score, Fréchet Inception Distance (FID)などが存在 ― IS, FIDはImagenetで学習されているInception Networkを使うので, 他のデータセットへ適用して精度を保証できるものではない ◼ GAN-train (recall: diversity) と GAN-test (precision: quality) を提案 2
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. GANのおさらい ◼ Discriminator ― 入力が x ~ Prもしくは,x′ ~ Pgであるかを判定する ― 実質的には,データ分布 Pr と生成分布 Pg がどれだけ離れているかを測る ◼ Generator ― Discriminatorの提示するどれだけ離れているかという指標を最小化する ― 最終的には,本物の画像 (x ~ Pr) に近い画像 (x′ ~ Pg) を出力する 3 Pz Pg Generator Discriminator Pr
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. GANのおさらい ◼ Pr とPg がどれだけ離れているかを表す指標は様々 ― JSD ― Energy ― Wasserstein Distance ― ... and more !! ◼ GANのテクニックも様々 ― Unrolled ― Gradient Penalty ― Spectral Normalization ― Progressive Growing ― ... and more !! 4
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. 5 何をモチベーションに色々な研究がされているのか?
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. GANに求められてるもの ◼ 多様性のある生成 ― データ分布を完全にカバーできるわけではない ― Mode Collapse (同じような出力ばかりする) ◼ 質の高い生成 ― 人間がみると生成と本物の差はわかってしまう ◼ 安定的な学習 ― 学習が破綻しやすい ― 2つのネットワークのバランス調整が必要 6 生成に関する指標が必要 ⇒ Inception Score, FID
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Inception Score ◼ Imagenet で学習済みのInception Networkを使った評価指標 ◼ Inception Network が識別しやすい(質が高い), 識別されるラベルのバリエーションが大きい(多様性)ほど,大きくなる指標 7 ( )~exp ( | ) || ( )gx P KLIS E D p y x p y = ( | ) ( )i ip y x F x= ネットワークの出力 ~( ) ( | )ix X ip y E p y x= ネットワークの出力の周辺確率 label probability label probability p(y|xi) p(y) 理想的な状態 多様性がある confidenceが高い ⇒質が高い Prの情報は一切考慮に入っていない
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Fréchet Inception Distance (FID) ◼ Imagenet で学習済みのInception Networkを使った評価指標 ◼ Inception Networkの特徴ベクトルの平均と分散共分散行列を Pr とPg のそれぞれから算出(2つのガウス分布) ◼ 小さいほど,良い指標 ◼ 現在のスタンダード 8 ( ) 122 2 2r g r g r gd tr = − + + −
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Sliced Wasserstein Distance ◼ PGGANで使われてる指標 ◼ Laplacian Pyramid の各レベルから,7×7のパッチを切り出す 論文内では,16,384枚の画像から各レベルで128枚のパッチ切り出して, 221個のdescriptorを作成 ◼ それぞれを1次元に変換して,SWDを測る 9 x′ = top_k(x ∙ θ) θ ~ N(o, I), θ ∈ 𝑹 𝑁 y′ = top_k(y ∙ θ) SWD = |x′ − y′| Wasserstein Distanceは 高次元ベクトルに対して,計算が大変 1次元に関しては,closed formが存在する だから,slice して1次元ごとにしよう
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. それぞれの弱点 ◼ Inception Score ― Imagenet で学習済みのInception Networkに依存している ― Prの情報は一切考慮に入っていない ◼ FID ― Imagenet で学習済みのInception Networkに依存している ― 結局のところ,ガウス分布を仮定している ◼ Sliced Wasserstein Distance ― 解像度が低い画像に関しては適用できない 10
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. 前提(手法に入る前に) ◼ この論文で扱うのは,ConditionalなGAN ◼ GANにおいて大事なことは ― realistic ― recognizable as coming from a given class ◼ Target distributionを完全につかんだGAN ― 生成する分布 Sg はデータセットの分布 St とは区別できない ― Sgと St の容量が同じ and MNISTのような単純なデータセットなら 同じvalidation accuracy を持つはず 11
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. GAN-train ◼ Sgで訓練された分類器を St を使って評価する ◼ GANが完璧でなければ ― Mode Collapseして多様性がない ― 識別に有用な特徴をとるのに十分な品質でない ― Conditionalな生成がうまくできていない ◼ train acc と valid acc が近いなら, Sg は St と同じくらいのQuality かつ Diverse である 12
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. GAN-test ◼ Stで訓練された分類器を Sg を使って評価する ― GANがうまく学習できていれば,簡単なタスクのはず ― St と Sgは同じ分布になっているはずだから ◼ 理想は「 train acc と valid acc が近い」こと ― valid acc が高いなら,GANがOverfitting してる and St を単に記憶しているだけ ― valid acc が低いなら,GANが St を捉えきれていない and Low Quality ◼ この指標は,分布の多様性を測ることは不可能 ― GANが1つのサンプルだけを記憶すれば, GAN-test は高くなってしまうから... 13
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Datasets ◼ MNIST ― Shape : (28, 28, 1) ― Train : 60k ― Test : 10k ◼ CIFAR10 and CIFAR100 ― Shape : (32, 32, 1) ― Train : 50k ― Test : 10k ◼ ImageNet (1000 classes) ― Shape : (128, 128, 3) or (64, 64, 3) ― Train : 1.3M ― Test : 50k 14
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Models ◼ PixelCNN++ ― Autoregressionモデル ◼ WGAN ― Wasserstein Distance を metricsとしたGAN ― with Gradient Penalty ― 現在のStandard Model ◼ SNGAN ― Spectral Normalization を適用したGAN ― 2017年のConditional GANの最高のモデル ◼ DCGAN ― Base Model 15
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Experiment (MNIST) ◼ 4層のConvnetで99.3% のtest acc が出た ― SNGANの GAN-train: 99.0% ― SNGANの GAN-test : 99.2% ◼ Sg は St と同じくらいのQuality かつ Diversity である 16
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Experiment (CIFAR10) 17 WDを最小化しているので小さくなる ⇒他のModelと比較するのは Fairじゃない? Sg (SNGAN) St Classifierの特徴ベクトルが 近いサンプルを持ってきた SNGANは,訓練データセットに近い, 同じクラスの画像を見つけることができる パラメータ数
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Experiment (CIFAR10) GAN-trainとGAN-testの関係を強調するために Subsampling と Corruptingしてみた ◼ Subsampling(データを少なくしてみる) ― GAN-test : 鈍感 ― GAN-train : 敏感 ◼ Corrupting (1%~20%のごま塩ノイズ) ― GAN-test : ほとんど影響なし ― GAN-train : 82% ⇒ 15% 18
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Experiment (CIFAR10) 「CIFAR10において,FIDを使うのは不十分ではないか?」 ◼ CIFAR10にガウシアンノイズ(σ=5)を付与すると,FIDは27.1に ― その中から,5k random samplingしても 29.6 ― この微差は,Diversity によるものか Quality によるものか判別が難しい ◼ 提案手法では ― GAN-test : 95%⇒95% ― GAN-train : 91%⇒80% ― つまり, Diversityが失われていたことがわかる! 19
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. CIFAR100 20 High Quality だけど Poor Diversity 差が顕著にわかる Random Forestで試しても順位変わらず
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. CIFAR100 ◼ 官能的な検証も行った ― 5人の被験者に,特定のクラスに対して生成された2枚のサンプルから “どっちがRealistic か?”を聞いてみる ― “SNGAN vs DCGAN“ “SNGAN vs WGAN(2.5M)” “SNGAN vs WGAN(10M)” ― ↑の3回の判定を1人に100回ずつやってもらった ◼ SNGAN vs DCGAN ― 368 : 132 ◼ SNGAN vs WGAN(2.5M) ― 274 : 226 ◼ SNGAN vs WGAN(10M) ― 230 : 270 21
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. ImageNet 22 かなり精度が 上がった 変化がわからない
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. データセットの大きさとDiversityの関係 ◼ 意外と全体的にサチるのは早い ◼ SNGANが一番Diversity がある 23
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Data Augmentation ◼ すべてのデータで学習されたSNGANで生成されたデータを50k追加してみた ◼ Performanceの向上を確認 ― でも,これ“すべてのデータで学習されたSNGAN”を使っているため, ニーズに則した実験ではないのでは…? 24 追加分が Poor Diversityだから?
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Data Augmentation ◼ SNGANに与えるデータも制限してみた ― 精度が落ちる? ― Poor Diversityだから? 25
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. まとめ ◼ GAN-train (recall: diversity) と GAN-test (precision: quality) を提案 ― GAN-train と GAN-test は従来手法に比べて有用 ◼ 実験・評価・考察を頑張りました ◼ GANでのAugmentationは,Diversity を失いやすい ― 小さいDataset からDiversity のあるGANを学習しないといけない(それは夢) ◼ 感想 ― Augmentationしたら精度が上がるという論文の是非が気になる もちろん,Datasetの違い(枚数,種類,複雑さ)もあるが... ― クラス情報なしの評価指標も必要では? 26
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. 27 Questions ?
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Distance, Divergence (過去スライドより抜粋) 分布間の距離をどう定義するかでGANのObjectiveは変わる ◼ JSD(Jensen Shannon Divergence) → Standard GAN ◼ EMD(Earth Mover’s Distance) → WGAN 28 ( )mpKLDmpKLDppJSD xpxp m xp xp EppKLD grgr gr g r pxgr r |||| 2 1 || 2 )()( )( )( log|| ~ += + = = ( ) ( ) yxEppW yx pp gr gr −= ~),( , inf,
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. JSD vs EMD(過去スライドより抜粋) ◼ Standard GAN ― 不連続なpg を生成していたのは、JSD自体が不連続だから ― また、勾配消失問題もJSDのせい ◼ WGAN ― Gがθにおいて連続なら、EMDも連続 ― DがK-Lipschitz連続性(関数の傾きがある定数Kで抑えられるような一様連続性)を保つなら、 EMDはどこでも連続かつ微分可能 29
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Gradient Penalty(過去スライドより抜粋) Optimal Critic D*は という直線上のどこにおいても、以下の勾配を持つ つまり、勾配のnormは1 だから、GP項はnorm=1からどれだけ離れているかを表している これで、1-Lipschitz連続性が担保できる! 30 xzGx +−= )()1(ˆ xx xx xDx ˆ ˆ )ˆ(* ˆ − − = ( ) − 2 2ˆ 1)ˆ(xDx 正規化されているのでnormは1
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Spectral Normalization for Generative Adversarial Networks ◼ GANにSpectral Normalization を適用した ◼ Contributions ― GANの安定性の向上 ― ImageNet等の多クラスデータセットに対して,生成を可能にした ― 簡単な実装,計算 ◼ PFNの論文 ◼ GoodfellowがGANで読むべき論文10選に選出 31
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Spectral Normalization for Generative Adversarial Networks ◼ 前提 ― GANにおいて,Discriminatorの学習が重要 ― Discriminatorが,Lipschitz連続性を保つことが安定に繋がる ― NNの演算は,a(Wx)の繰り返し 32 1 2 0( ( ( ( ( ( ))))L L Ly a a a a x− −= L L-1 0W W W
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Spectral Normalization ◼ 入力h のL層目から,L+1層目への写像g のLipschitz norm は, ◼ 上式のσ は,行列A のSpectral Normである ◼ これは,行列A の最大特異値に等しい ◼ 各レイヤーの演算は,線形であるため ◼ つまり,重みW の最大特異値がLipschitz Normである 33 sup ( ( )) h g h 2 2 20 1 2 ( ) max max h h Ah A Ah h = = sup ( ( )) sup ( ) ( ) h h g h W W = =
Copyright © 2018
Gifu-U Kato-Lab All Rights Reserved. Spectral Normalization ◼ NNの演算は, a(Wx)の繰り返し ― 各レイヤーのLipschitz NormがK以下ならば,NN全体のLipschitz NormもK以下 ― K = 1 ならば... ◼ 計算時は,更新ごとに全重みを特異値分解する必要がある ― 計算コスト大 ― Power Iteration(近似)で解決 34 ( ) SN W W W =
Advertisement