SlideShare a Scribd company logo
Learning from Simulated and
Unsupervised Images through
Adversarial Training
Aug. 28, 2017
⼯学系研究科システム創成学専攻 杉原祥太
書誌情報
• 著者
• Ashish Shrivastava, Tomas Pfister, Oncel Tuzel, Joshua Susskind,
Wenda Wang, Russell Webb
• Apple Inc.
• CVPR 2017, Best paper award
• arXiv: https://arxiv.org/abs/1612.07828
• Presentation: https://youtu.be/P3ayMdNdokg
2
Motivation
• ラベル付き実データを⼤量に⽤意す
るのは⼤変
• シミュレータで⽣成されたラベル付
きデータは実データとギャップがあ
り,思ったように性能が上がらない.
• GANのアプローチを⽤いて,シミュ
レータで⽣成した画像を,教師なし
学習で実データそっくりに修正する
3
SimGAN 概要
• Refiner
• シミュレータによる⽣成画像を
Refinerによって実データぽく修正
• シミュレータで得られた付加情報
(視線⽅向など)を保持しつつ,
Discriminatorをだますように学習
• Discriminator
• Refinerによって⽣成されてデータ
と実データを識別
4
Self-reg. loss
Adversarial loss
関連研究
• Generative Adversarial Nets [Goodfellow et al.(2014)]
• GeneratorとDiscriminatorを敵対的に学習
• UnityEyes[Wood et al.(2016)]
• シミュレータで⼤量の眼画像を⽣成,最近傍探索で視線推定
• Stacked Multichannel Autoencoder[Zhang et al.(2015)]
• スケッチと写真のデータの分布のギャップを学習
• CG2Real[Johnson et al.(2011)]
• CGから各部位を推定し,写真による実データを組み合わせて背景画像
⽣成
5
Training Loss: Discriminator
• Discriminator𝐷 𝝓は実データとRefinedデータを識別する
• パラメータ𝝓はミニバッチごとにSGDにより更新
6
Label 0 for real image
Label 1 for refined image
Training Loss: Refiner
• 実データ群𝐲$ ∈ 𝒴,シミュレータによる⽣成画像𝐱から,refine
画像𝐱(を⽣成したい.𝐱( ≔ 𝑅 𝜽 𝐱
• 𝜽の学習に⽤いるloss:
• ℓ-./0: 実データに似ているか
• ℓ-.1: 付加情報が保存されているか
• 𝜓は特徴空間への写像,ここでは恒等写像
7
アルゴリズム
• Refiner𝑅 𝜽はstride, poolingなしの
全結合層で実装→全体的な構造が
保存される
• ℒ4 𝜽 とℒ5 𝝓 を交代で学習
• 𝑅 𝜽更新時は𝝓固定
• 𝐷 𝝓更新時は𝜽固定
8
Local Adversarial Loss
• Discriminatorへの⼊⼒画像をpatchと呼ぶ⼩単位に分割する.
• Refinedデータが実データそっくりなら,局所的に⾒ても似て
いると考える.
• 各patchで実データである確率を計算,loss関数には全ての
patchのクロスエントロピーlossの和を与える.
9
Using a History of Refined Images
• Discriminatorが最新の⽣成画像のみに従っ
て学習してしまう.
• Refinerから⽣成された画像は常に”偽物”なのに
その影響を忘れる.
• Discriminatorは常にこれらの画像を偽物と分類
すべきである.
• Refined画像のHistoryからDiscriminatorを
学習
• ミニバッチの半分は現在のRefinerから⽣成され
た画像,残りはバッファで蓄えられた画像から
更新する.
• イテレータの更新時にバッファの半分をランダ
ムに選び,新しいRefined画像に置き換える.
10
データセット
• Eye Gaze Estimation
• MPIIGaze Dataset[Zhang et al.(2015)]
• 214K real images
• UnityEyes[Wood et al.(2016)]
• 1.2M synthetic images
• Hand Pose Estimation
• NYU hand pose dataset
• 72,757 training frames
• 8,251 testing frames
• 前処理で224×224にクロッピング
11
Eye Gaze Estimation: 定性的評価
• 視線の⽅向を保ちつつ,肌の質感,センサのノイズ,虹彩の外
観が再現できている.
• 𝜓が恒等写像でない場合
• RGBチャネルの平均値
12
Eye Gaze Estimation: Visual Tuning Test
• 20枚ずつ例を⾒せた上で,実データとRefinedデータを分類し
てもらう(50枚+50枚,被験者10名)
• Accuracyは517/1000 𝑝 = 0.148
• 対照的に,実データとオリジナルの⽣成データの分類の
Accuracyは168/200 𝑝 ≤ 10@
13
Eye Gaze Estimation: 定量的評価
• ZhangらのCNNに似た
CNN(outputは視線⽅向を表す
3次元ベクトル)を⽤いて学習
• 訓練データによる結果の⽐較
• d=7度以内の誤差を許容する時
の結果の⼀致率
14
Eye Gaze Estimation: 定量的評価
• ネットワークごとでの⽐較
• 提案⼿法が最も優れているこ
とを⽰した.
• Refinerが視線⽅向をきちんと
保存しているかどうか
• 各100個のデータをラベル付け
• 差の絶対量は1.1 ± 0.8	px, 瞳の
⼤きさは55	px
15
Hand Pose Estimation: 定性的評価
• 境界部分の不連続といった,実データにおけるノイズが再現で
きている.
16
Hand Pose Estimation: 定量的評価
• Refinerによる影響を調べるた
め,訓練データによる⽐較のみ
• 提案⼿法が最も優れていること
を⽰した.
17
Using the History of Refined Imagesの評価
• Without historyでの⽬の周りに
⽣じる不⾃然さが,with history
で抑制されている.
• 視線推定の誤差が減る
• With history: 7.8 degrees
• Without history: 12.2 degrees
18
Local Adversarial Lossの評価
• Global adversarial lossでは
境界部分で不⾃然な深度分布
になっているが,Local
adversarial lossではそれらが
解消されている.
19
まとめ
• Contirutions
• ⽣成データをRefineするため教師なし学習を⾏うS+U Learningの提案
• Adversarial lossとself-regularization lossを組み合わせて,Refinerを
学習
• GANの学習の安定化と不⾃然な⽣成を避けるための改良
• 質的量的にシミュレータによるデータ⽣成の⾃然さを向上,Refinerで
⽣成したデータからstate of the artな結果を実現
20
Eye Gaze Estimation: ネットワーク
• Refiner Network
• Input (conv, 55×35, filter3×3)
• ResNet (2conv, 64 feature map)×4
• Conv1x1 1 feature map=1
• Discriminator
• (1) Conv3x3, stride=2, feature maps=96,
• (2) Conv3x3, stride=2, feature maps=64
• (3) MaxPool3x3, stride=1
• (4) Conv3x3, stride=1, feature maps=32
• (5) Conv1x1, stride=1, feature maps=32
• (6) Conv1x1, stride=1, feature maps=2
• (7) Softmax.
• EyeGazeEstimation
• Input 35x55 grayscale
• (1) Conv3x3, feature maps=32
• (2) Conv3x3, feature maps=32
• (3) Conv3x3, feature maps=64
• (4) Max- Pool3x3, stride=2
• (5) Conv3x3, feature maps=80
• (6) Conv3x3, feature maps=192
• (7) MaxPool2x2, stride=2
• (8) FC9600
• (9) FC1000
• (10) FC3
• (11) Euclidean loss
21
Hand Pose Estimation : ネットワーク
• Refiner Network
• Input (conv, 224x224, filter7x7)
• ResNet (2conv, 64 feature map)×10
• Conv1x1 1 feature map=1
• Discriminator
• (1) Conv7x7, stride=4, feature maps=96
• (2) Conv5x5, stride=2, feature maps=64
• (3) MaxPool3x3, stride=2
• (4) Conv3x3, stride=2, feature maps=32
• (5) Conv1x1, stride=1, feature maps=32
• (6) Conv1x1, stride=1, feature maps=2,
• (7) Softmax
• EyeGazeEstimation
• Input 224x224 grayscale
• Hourglass blocks x2
• Conv7x7, stride=2
• Residual module
• maxpooling
• Output 64x64
22

More Related Content

What's hot

Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
Deep Learning JP
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
joisino
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Junya Saito
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
 
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
 
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
Deep Learning JP
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
Deep Learning JP
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
 
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
Deep Learning JP
 
Long-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向についてLong-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向について
Plot Hong
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
cvpaper. challenge
 
[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況
Deep Learning JP
 
Lucas kanade法について
Lucas kanade法についてLucas kanade法について
Lucas kanade法について
Hitoshi Nishimura
 

What's hot (20)

Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイ
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用
 
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
 
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
 
Long-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向についてLong-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向について
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況
 
Lucas kanade法について
Lucas kanade法についてLucas kanade法について
Lucas kanade法について
 

Viewers also liked

[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields [DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
Deep Learning JP
 
[DL輪読会]Train longer, generalize better: closing the generalization gap in lar...
[DL輪読会]Train longer, generalize better: closing the generalization gap in lar...[DL輪読会]Train longer, generalize better: closing the generalization gap in lar...
[DL輪読会]Train longer, generalize better: closing the generalization gap in lar...
Deep Learning JP
 
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
Yusuke Iwasawa
 
[DL輪読会]Deep Recurrent Generative Decoder For Abstractive Text Summarization(E...
[DL輪読会]Deep Recurrent Generative Decoder For Abstractive Text Summarization(E...[DL輪読会]Deep Recurrent Generative Decoder For Abstractive Text Summarization(E...
[DL輪読会]Deep Recurrent Generative Decoder For Abstractive Text Summarization(E...
Deep Learning JP
 
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
Deep Learning JP
 
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
 [DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent [DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
Deep Learning JP
 

Viewers also liked (6)

[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields [DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
 
[DL輪読会]Train longer, generalize better: closing the generalization gap in lar...
[DL輪読会]Train longer, generalize better: closing the generalization gap in lar...[DL輪読会]Train longer, generalize better: closing the generalization gap in lar...
[DL輪読会]Train longer, generalize better: closing the generalization gap in lar...
 
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
 
[DL輪読会]Deep Recurrent Generative Decoder For Abstractive Text Summarization(E...
[DL輪読会]Deep Recurrent Generative Decoder For Abstractive Text Summarization(E...[DL輪読会]Deep Recurrent Generative Decoder For Abstractive Text Summarization(E...
[DL輪読会]Deep Recurrent Generative Decoder For Abstractive Text Summarization(E...
 
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
 
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
 [DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent [DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
 

Similar to [DL輪読会] Learning from Simulated and Unsupervised Images through Adversarial Training

ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門
Retrieva inc.
 
[DL輪読会]High-Fidelity Image Generation with Fewer Labels
[DL輪読会]High-Fidelity Image Generation with Fewer Labels[DL輪読会]High-Fidelity Image Generation with Fewer Labels
[DL輪読会]High-Fidelity Image Generation with Fewer Labels
Deep Learning JP
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
Deep Learning JP
 
2019/5/24 Chainer familyで始める深層学習 ハンズオンの部
2019/5/24 Chainer familyで始める深層学習 ハンズオンの部2019/5/24 Chainer familyで始める深層学習 ハンズオンの部
2019/5/24 Chainer familyで始める深層学習 ハンズオンの部
belltailjp
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
atsushi061452
 
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
Deep Learning JP
 
論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...
論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...
論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...
Kazuki Adachi
 
AIがAIを生み出す?
AIがAIを生み出す?AIがAIを生み出す?
AIがAIを生み出す?
Daiki Tsuchiya
 
Amazon Game Tech Night #20 機械学習やエッジコンピューティングを利用してゲームのユーザ体験を向上する
Amazon Game Tech Night #20 機械学習やエッジコンピューティングを利用してゲームのユーザ体験を向上するAmazon Game Tech Night #20 機械学習やエッジコンピューティングを利用してゲームのユーザ体験を向上する
Amazon Game Tech Night #20 機械学習やエッジコンピューティングを利用してゲームのユーザ体験を向上する
Amazon Web Services Japan
 

Similar to [DL輪読会] Learning from Simulated and Unsupervised Images through Adversarial Training (9)

ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門
 
[DL輪読会]High-Fidelity Image Generation with Fewer Labels
[DL輪読会]High-Fidelity Image Generation with Fewer Labels[DL輪読会]High-Fidelity Image Generation with Fewer Labels
[DL輪読会]High-Fidelity Image Generation with Fewer Labels
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
 
2019/5/24 Chainer familyで始める深層学習 ハンズオンの部
2019/5/24 Chainer familyで始める深層学習 ハンズオンの部2019/5/24 Chainer familyで始める深層学習 ハンズオンの部
2019/5/24 Chainer familyで始める深層学習 ハンズオンの部
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
 
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
 
論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...
論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...
論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...
 
AIがAIを生み出す?
AIがAIを生み出す?AIがAIを生み出す?
AIがAIを生み出す?
 
Amazon Game Tech Night #20 機械学習やエッジコンピューティングを利用してゲームのユーザ体験を向上する
Amazon Game Tech Night #20 機械学習やエッジコンピューティングを利用してゲームのユーザ体験を向上するAmazon Game Tech Night #20 機械学習やエッジコンピューティングを利用してゲームのユーザ体験を向上する
Amazon Game Tech Night #20 機械学習やエッジコンピューティングを利用してゲームのユーザ体験を向上する
 

More from Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
Deep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
 

More from Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 

Recently uploaded

【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
Sony - Neural Network Libraries
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
Toru Tamaki
 
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
NTT DATA Technology & Innovation
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance
 
CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
Yuuitirou528 default
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
iPride Co., Ltd.
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
Fukuoka Institute of Technology
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
harmonylab
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
Matsushita Laboratory
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
yassun7010
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance
 

Recently uploaded (15)

【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
 
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
 
CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
 

[DL輪読会] Learning from Simulated and Unsupervised Images through Adversarial Training

  • 1. Learning from Simulated and Unsupervised Images through Adversarial Training Aug. 28, 2017 ⼯学系研究科システム創成学専攻 杉原祥太
  • 2. 書誌情報 • 著者 • Ashish Shrivastava, Tomas Pfister, Oncel Tuzel, Joshua Susskind, Wenda Wang, Russell Webb • Apple Inc. • CVPR 2017, Best paper award • arXiv: https://arxiv.org/abs/1612.07828 • Presentation: https://youtu.be/P3ayMdNdokg 2
  • 4. SimGAN 概要 • Refiner • シミュレータによる⽣成画像を Refinerによって実データぽく修正 • シミュレータで得られた付加情報 (視線⽅向など)を保持しつつ, Discriminatorをだますように学習 • Discriminator • Refinerによって⽣成されてデータ と実データを識別 4 Self-reg. loss Adversarial loss
  • 5. 関連研究 • Generative Adversarial Nets [Goodfellow et al.(2014)] • GeneratorとDiscriminatorを敵対的に学習 • UnityEyes[Wood et al.(2016)] • シミュレータで⼤量の眼画像を⽣成,最近傍探索で視線推定 • Stacked Multichannel Autoencoder[Zhang et al.(2015)] • スケッチと写真のデータの分布のギャップを学習 • CG2Real[Johnson et al.(2011)] • CGから各部位を推定し,写真による実データを組み合わせて背景画像 ⽣成 5
  • 6. Training Loss: Discriminator • Discriminator𝐷 𝝓は実データとRefinedデータを識別する • パラメータ𝝓はミニバッチごとにSGDにより更新 6 Label 0 for real image Label 1 for refined image
  • 7. Training Loss: Refiner • 実データ群𝐲$ ∈ 𝒴,シミュレータによる⽣成画像𝐱から,refine 画像𝐱(を⽣成したい.𝐱( ≔ 𝑅 𝜽 𝐱 • 𝜽の学習に⽤いるloss: • ℓ-./0: 実データに似ているか • ℓ-.1: 付加情報が保存されているか • 𝜓は特徴空間への写像,ここでは恒等写像 7
  • 8. アルゴリズム • Refiner𝑅 𝜽はstride, poolingなしの 全結合層で実装→全体的な構造が 保存される • ℒ4 𝜽 とℒ5 𝝓 を交代で学習 • 𝑅 𝜽更新時は𝝓固定 • 𝐷 𝝓更新時は𝜽固定 8
  • 9. Local Adversarial Loss • Discriminatorへの⼊⼒画像をpatchと呼ぶ⼩単位に分割する. • Refinedデータが実データそっくりなら,局所的に⾒ても似て いると考える. • 各patchで実データである確率を計算,loss関数には全ての patchのクロスエントロピーlossの和を与える. 9
  • 10. Using a History of Refined Images • Discriminatorが最新の⽣成画像のみに従っ て学習してしまう. • Refinerから⽣成された画像は常に”偽物”なのに その影響を忘れる. • Discriminatorは常にこれらの画像を偽物と分類 すべきである. • Refined画像のHistoryからDiscriminatorを 学習 • ミニバッチの半分は現在のRefinerから⽣成され た画像,残りはバッファで蓄えられた画像から 更新する. • イテレータの更新時にバッファの半分をランダ ムに選び,新しいRefined画像に置き換える. 10
  • 11. データセット • Eye Gaze Estimation • MPIIGaze Dataset[Zhang et al.(2015)] • 214K real images • UnityEyes[Wood et al.(2016)] • 1.2M synthetic images • Hand Pose Estimation • NYU hand pose dataset • 72,757 training frames • 8,251 testing frames • 前処理で224×224にクロッピング 11
  • 12. Eye Gaze Estimation: 定性的評価 • 視線の⽅向を保ちつつ,肌の質感,センサのノイズ,虹彩の外 観が再現できている. • 𝜓が恒等写像でない場合 • RGBチャネルの平均値 12
  • 13. Eye Gaze Estimation: Visual Tuning Test • 20枚ずつ例を⾒せた上で,実データとRefinedデータを分類し てもらう(50枚+50枚,被験者10名) • Accuracyは517/1000 𝑝 = 0.148 • 対照的に,実データとオリジナルの⽣成データの分類の Accuracyは168/200 𝑝 ≤ 10@ 13
  • 14. Eye Gaze Estimation: 定量的評価 • ZhangらのCNNに似た CNN(outputは視線⽅向を表す 3次元ベクトル)を⽤いて学習 • 訓練データによる結果の⽐較 • d=7度以内の誤差を許容する時 の結果の⼀致率 14
  • 15. Eye Gaze Estimation: 定量的評価 • ネットワークごとでの⽐較 • 提案⼿法が最も優れているこ とを⽰した. • Refinerが視線⽅向をきちんと 保存しているかどうか • 各100個のデータをラベル付け • 差の絶対量は1.1 ± 0.8 px, 瞳の ⼤きさは55 px 15
  • 16. Hand Pose Estimation: 定性的評価 • 境界部分の不連続といった,実データにおけるノイズが再現で きている. 16
  • 17. Hand Pose Estimation: 定量的評価 • Refinerによる影響を調べるた め,訓練データによる⽐較のみ • 提案⼿法が最も優れていること を⽰した. 17
  • 18. Using the History of Refined Imagesの評価 • Without historyでの⽬の周りに ⽣じる不⾃然さが,with history で抑制されている. • 視線推定の誤差が減る • With history: 7.8 degrees • Without history: 12.2 degrees 18
  • 19. Local Adversarial Lossの評価 • Global adversarial lossでは 境界部分で不⾃然な深度分布 になっているが,Local adversarial lossではそれらが 解消されている. 19
  • 20. まとめ • Contirutions • ⽣成データをRefineするため教師なし学習を⾏うS+U Learningの提案 • Adversarial lossとself-regularization lossを組み合わせて,Refinerを 学習 • GANの学習の安定化と不⾃然な⽣成を避けるための改良 • 質的量的にシミュレータによるデータ⽣成の⾃然さを向上,Refinerで ⽣成したデータからstate of the artな結果を実現 20
  • 21. Eye Gaze Estimation: ネットワーク • Refiner Network • Input (conv, 55×35, filter3×3) • ResNet (2conv, 64 feature map)×4 • Conv1x1 1 feature map=1 • Discriminator • (1) Conv3x3, stride=2, feature maps=96, • (2) Conv3x3, stride=2, feature maps=64 • (3) MaxPool3x3, stride=1 • (4) Conv3x3, stride=1, feature maps=32 • (5) Conv1x1, stride=1, feature maps=32 • (6) Conv1x1, stride=1, feature maps=2 • (7) Softmax. • EyeGazeEstimation • Input 35x55 grayscale • (1) Conv3x3, feature maps=32 • (2) Conv3x3, feature maps=32 • (3) Conv3x3, feature maps=64 • (4) Max- Pool3x3, stride=2 • (5) Conv3x3, feature maps=80 • (6) Conv3x3, feature maps=192 • (7) MaxPool2x2, stride=2 • (8) FC9600 • (9) FC1000 • (10) FC3 • (11) Euclidean loss 21
  • 22. Hand Pose Estimation : ネットワーク • Refiner Network • Input (conv, 224x224, filter7x7) • ResNet (2conv, 64 feature map)×10 • Conv1x1 1 feature map=1 • Discriminator • (1) Conv7x7, stride=4, feature maps=96 • (2) Conv5x5, stride=2, feature maps=64 • (3) MaxPool3x3, stride=2 • (4) Conv3x3, stride=2, feature maps=32 • (5) Conv1x1, stride=1, feature maps=32 • (6) Conv1x1, stride=1, feature maps=2, • (7) Softmax • EyeGazeEstimation • Input 224x224 grayscale • Hourglass blocks x2 • Conv7x7, stride=2 • Residual module • maxpooling • Output 64x64 22