SlideShare a Scribd company logo
1 of 33
論文紹介
若松 浩平
Generative Adversarial Nets
紹介する論文について
従来の生成モデル
Generative Adversarial Nets
実験
まとめ
紹介する論文について
Generative Adversarial Nets
Advances in Neural Information Processing Systems 27 (NIPS 2014)
Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza,
Bing Xu, David Warde-Farley, Sherjil Ozair,
Aaron Courville, Yoshua Bengio
• 競合する二つのネットワークの学習
• 「ピカソのような」生成モデルと「前例のない」識別モデル概要
背景
• これまでの機械学習では大量のデータが必要
• 「膨大な手作業の可能性」を解消したい
“The most interesting idea in the last 10 years in ML, in my opinion.”
–Yann LeCun
紹介する論文について
従来の生成モデル
Generative Adversarial Nets
実験
まとめ
従来の生成モデル
• Restricted Boltzmann Machines (RBMs)
Deep Boltzmann Machines (DBMs)
• Deep Belief Networks(DBN)
• Deep Learningにおける事前学習法の一種
• 確率分布をMarkov chain Monte Carlo法(MCMC)によって推定する生成モデル
• 単純な問題以外では扱いづらい
• Deep Learningのはじまり
• 無向モデルと有向モデルの両方で計算上の困難の存在
従来の生成モデル
• Generative Stochastic Network(GSN)
• 目的の確率分布からサンプルを生成する学習を行うモデルの一種
• 扱うデータはMarkov Chainを前提とする
• 適用できるモデルが限られる
• Noise-Contrastive Estimation(NCE)
• 確率密度関数を正規化定数まで解析的に特定する必要がある
• 一意に計算可能ではない
従来の生成モデルでは
• 適用できるモデルが少ない
• 学習では誤差関数を解析的に求めるか、推定値を用いる場合がある
といった問題点が存在する
紹介する論文について
従来の生成モデル
Generative Adversarial Nets
実験
まとめ
GANの概要
GeneratorとDiscriminatorからなる二種のネットワーク
紙幣の偽造者と警察の関係によく例えられる
Generator
(偽造者)
• 本物の紙幣に似た偽物の紙幣を作る
• 警察を騙すため、より精巧な偽物を作成する能力は向上していく
• 生成モデルにあたる
GANの概要
GeneratorとDiscriminatorからなる二種のネットワーク
紙幣の偽造者と警察の関係によく例えられる
Generator
(偽造者)
• 本物の紙幣に似た偽物の紙幣を作る
• 警察を騙すため、より精巧な偽物を作成する能力は向上していく
• 生成モデルにあたる
Discriminator
(警察)
• 本物の紙幣と偽物の紙幣を見分ける
• 偽造者によって警察は鑑識のノウハウを学習していく
• 識別モデルにあたる
GANの概要
GeneratorとDiscriminatorからなる二種のネットワーク
紙幣の偽造者と警察の関係によく例えられる
Generator
(偽造者)
• 本物の紙幣に似た偽物の紙幣を作る
• 警察を騙すため、より精巧な偽物を作成する能力は向上していく
• 生成モデルにあたる
Discriminator
(警察)
• 本物の紙幣と偽物の紙幣を見分ける
• 偽造者によって警察は鑑識のノウハウを学習していく
• 識別モデルにあたる
Adversarial(敵対的な)ネットワークを構築することによって
互いの能力を向上させる
両方のモデルが多層パーセプトロンのとき、最も簡単に適用可能
GANの概要
●Generator
𝑃𝑍(𝒛)
𝒛
𝐺 𝒛; 𝜃𝑔
𝐷(𝒙)
前提
: ある種の任意の確率分布
: 個々のノイズサンプル
: 𝒛 を入力としたときの、特徴空間へのマッピング
: 𝒙 が真のデータである確率
• ノイズ𝒛を入力としてデータを生成し、𝑃𝑔に分布させる
• 𝑃𝑔はGeneratorから生成された出力の分布を示す
• log(1 − 𝐷 𝐺 𝒛 )を最小にするように訓練する
●Discriminator
• トレーニングデータとGのデータに正しいラベルを割り当てる
• log 𝐷 𝒙 を最大にするように訓練する
GANの概要
●学習はDを最適化するkstepとGを最適化する1stepが交互に行われる
以下の式を価値関数とするminimaxゲームが行われる
min
𝐺
max
𝐷
𝑉 𝐷, 𝐺 = 𝔼 𝒙~𝑃 𝑑𝑎𝑡𝑎 𝒙 [log 𝐷(𝒙)] + 𝔼 𝒛~𝑃 𝑔 𝒛 [log(1 − 𝐷 𝐺 𝒛 )]
• トレーニングの内部ループでは最適化を完了させない
• Gに合わせた最適化
●実際には上式ではうまく学習できない場合がある
• データ生成よりも分類の方が容易に学習ができる
• 学習の初期ではDの学習が早く進み、Gの勾配が小さくなる
log 𝐷(𝐺(𝒛))を最大化するように学習を行うことで強い勾配を得る
GANの概要
学習の様子
𝑝 𝒙 : 真のデータの確率分布
𝑝 𝑔 : 生成データの確率分布
識別の確率
GANの基礎理論
GANの基礎理論
1. 𝑝 𝑔 = 𝑝 𝒅𝒂𝒕𝒂の最適性
任意のGに対して最適なDを考える.
Proposition 1. Gを固定したとき、最適なGは以下の式によって与えられる.
𝐷 𝐺
∗
𝒙 =
𝑝 𝑑𝑎𝑡𝑎(𝒙)
𝑝 𝑑𝑎𝑡𝑎 𝒙 + 𝑝 𝑔(𝒙)
Proof. Dの学習はあらゆるGに対して𝑉(𝐺, 𝐷)を最大にすることを目標とする.
𝑉 𝐺, 𝐷 =
𝒙
𝑝 𝑑𝑎𝑡𝑎 𝒙 log 𝐷 𝒙 𝑑𝑥 +
𝒙
𝑝𝒛 𝒛 log 1 − 𝐷 𝑔(𝒛) 𝑑𝑧
= 𝒙
𝑝 𝑑𝑎𝑡𝑎 𝒙 log 𝐷 𝒙 𝑑𝑥 + 𝑝 𝑔 𝒙 log 1 − 𝐷 𝒙 𝑑𝑥
あらゆる 𝑎, 𝑏 ∈ ℝ2
∖ 0, 0 について、関数y → 𝑎 log 𝑦 + 𝑏 log( 1 − 𝑦)の最大値は[0, 1]の時
𝑎
𝑎+𝑏
である.
concluding the proof.
GANの基礎理論
1. 𝑝 𝑔 = 𝑝 𝒅𝒂𝒕𝒂の最適性
Dの目標は条件付き確率𝑃(𝑌 = 𝑦|𝒙)を推定する対数尤度を最大にすることと解釈できる.
ここで𝑌は𝒙が𝑝 𝑑𝑎𝑡𝑎(𝑦 = 1)または𝑝 𝑔 𝑦 = 0 のどちらから生成されたかを示す.
いま、Minimaxゲームの式を以下のように書き換えることができる.
GANの基礎理論
1. 𝑝 𝑔 = 𝑝 𝒅𝒂𝒕𝒂の最適性
Theorem 1. 𝑝 𝑔 = 𝑝 𝒅𝒂𝒕𝒂を満たす場合にのみ、仮想的な学習基準𝐶(𝐺)を得る.
このとき、𝐶 𝐺 = −log 4となる.
Proof. 𝑝 𝑔 = 𝑝 𝑑𝑎𝑡𝑎のとき、𝐷 𝐺
∗
𝒙 =
1
2
. したがって𝐶 𝐺 = log
1
2
+ log
1
2
= − log 4が得られる.
最も良い𝐶(𝐺)の値が𝑝 𝑔 = 𝑝 𝑑𝑎𝑡𝑎の場合のみに得られるかを確認するため、以下の式
𝔼 𝒙~𝑃 𝑑𝑎𝑡𝑎
[−log2] + 𝔼 𝒙~𝑃 𝑔
[−log 2] = − log 4
を𝐶 𝐺 = 𝑉(𝐷 𝐺
∗
, 𝐺)から減算し、次の式を得る.
ここで、𝐾𝐿はKLダイバージェンスを表す.
KLダイバージェンス : 二つの確率分布の差異を表現する
GANの基礎理論
1. 𝑝 𝑔 = 𝑝 𝒅𝒂𝒕𝒂の最適性
上式はJSダイバージェンスに変形できる.
二つの確率分布間のJSダイバージェンスは常に非負の値をとり、かつ
二つが正しい場合にのみ0となる.
したがって、 𝐶∗
= −log 4は𝐶(𝐺)の最小値であり、その解は𝑝 𝑔 = 𝑝 𝑑𝑎𝑡𝑎すなわち
生成モデルが完全に真の生成データプロセスを模倣できた場合のみである.
concluding the proof.
GANの基礎理論
2. Algorithm1の収束
Proposition 2. GとDに十分な能力があり、かつAlgorithm1の各ステップにおいて
Dが与えられたGに対して最適化され, 𝑝 𝑔は以下の基準を改善するように更新されるとする.
𝔼 𝒙~𝑃 𝑑𝑎𝑡𝑎
[log 𝐷 𝐺
∗
(𝒙)] + 𝔼 𝒛~𝑃 𝑔
[log(1 − 𝐷 𝐺
∗
𝐺 𝒙 )]
このとき、 𝑝 𝑔は𝑝 𝑑𝑎𝑡𝑎に収束する.
Proof. 𝑉 𝐺, 𝐷 = 𝑈(𝑝 𝑔, 𝐷)を上記の基準を満たした𝑝 𝑔の関数と考える. 𝑈(𝑝 𝑔, 𝐷)は𝑝 𝑔で凸である.
凸関数の上限における劣微分は、最大値に達する関数の微分を含む.
つまり、𝑓 𝑥 = sup
𝛼∈𝒜
𝑓𝛼(𝑥)かつ𝑓𝛼(𝑥)が全ての𝛼について凸ならば、
𝛽 = arg sup
𝛼∈𝒜
𝑓𝛼(𝑥)のとき𝜕𝑡 𝛽(𝑥) ∈ 𝜕𝑓である.
これは、対応するGが与えられた最適なDにおいて𝑝 𝑔の降下する勾配を更新することと等価である.
sup
𝐷
𝑈(𝑝𝑔, 𝐷) は𝑝𝑔で凸であり、𝑇ℎ𝑚 1で証明されたように一意の最適値を持つため、
𝑝𝑔の更新が十分に小さい場合、𝑝𝑔は𝑝𝑥に収束する. concluding the proof.
紹介する論文について
従来の生成モデル
Generative Adversarial Nets
実験
まとめ
実験
実験方法
• MNIST, Toronto Face Database(TFD), CIFAR-10をGANで学習
• Generatorは活性化関数としてReLU関数とシグモイド関数を、
Discriminatorはmaxout関数を使用
• DiscriminatorではDropoutを使用
• 理論的にはGeneratorにおいてDropoutやノイズの入力を中間層で用いても
よいが、実験ではノイズは最下層のみへの入力として使用
• Gで生成されたデータにガウシアンカーネル密度推定を適用し、
得られた分布の対数尤度からpgがテストセットである確率を推定する
• ガウシアンカーネル密度推定の𝜎パラメータは検証用のデータから
交差検証法で求める
実験
実験結果
MNIST, TFDに対して各モデルの生成した確率分布の対数尤度
実験
実験結果
Generatorの生成した画像
実験
実験結果
完成したモデルの𝒛空間の座標間を線型補完して得られた画像
紹介する論文について
従来の生成モデル
Generative Adversarial Nets
実験
まとめ
利点と欠点
利点
• マルコフ連鎖が不要で、鮮鋭な出力が得られる
• 勾配の計算に誤差逆伝播を用いることができる
• 様々なモデルを適用可能
• 計算可能である
• Discriminatorの評価を考慮してGeneratorの学習が行われるため
入力をそのまま覚えることがない
欠点
• 明示的な𝑝 𝑔が存在しない
• DとGはうまく同期しながら学習を行わなければならない
現在の関連技術
LAPGAN(Laplacian Pyramid of Generative Adversarial Networks)
• CNNを使ったGAN
• 段階的に高解像度な画像を得ることができる
現在の関連技術
DCGAN(Deep Convolutional Generative Adversarial Network)
• CNNを使ったGAN
• ネットワークの構造などの改善
• 段階を経ずに高解像度な画像を得ることができる
• 本物らしさが急激に増加した
現在の関連技術
DCGAN(Deep Convolutional Generative Adversarial Network)
生成されたベッドルームの画像
現在の関連技術
DCGAN(Deep Convolutional Generative Adversarial Network)
入力の𝒛ベクトルで演算を行なった結果
現在の関連技術
SRGAN(Super Resolution Generative Adversarial Network)
• GANを超解像に応用した技術
• 従来技術と違って「本物っぽく」できる(GANの特性)
現在の関連技術
StackGAN
• Generatorを二段階にすることでよりクオリティの高い画像を得られる
• テキストとノイズを入力とすることで生成される
まとめ
• 様々なモデルに適用可能
• 生成モデルの学習を計算可能にした
現在最も熱いモデルの一つだと思います!
GANとは
Generative Adversarial Nets
画像を生成するGeneratorと識別するDiscriminatorが
相互に学習し合うモデル
ここがすごいぞ

More Related Content

What's hot

RUTILEA社内勉強会第4回 「敵対的生成ネットワーク(GAN)」
RUTILEA社内勉強会第4回 「敵対的生成ネットワーク(GAN)」RUTILEA社内勉強会第4回 「敵対的生成ネットワーク(GAN)」
RUTILEA社内勉強会第4回 「敵対的生成ネットワーク(GAN)」TRUE_RUTILEA
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
Basic Generative Adversarial Networks
Basic Generative Adversarial NetworksBasic Generative Adversarial Networks
Basic Generative Adversarial NetworksDong Heon Cho
 
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)Yusuke Nakata
 
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)Tenki Lee
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANsDeep Learning JP
 
[Dl輪読会]introduction of reinforcement learning
[Dl輪読会]introduction of reinforcement learning[Dl輪読会]introduction of reinforcement learning
[Dl輪読会]introduction of reinforcement learningDeep Learning JP
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Masaya Kaneko
 
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalLarge scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalKCS Keio Computer Society
 
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)Masakazu Iwamura
 
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)Tomoyuki Hioki
 
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
[DL輪読会]Few-Shot Unsupervised Image-to-Image TranslationDeep Learning JP
 
論文紹介:Generative Adversarial Networks
論文紹介:Generative Adversarial Networks論文紹介:Generative Adversarial Networks
論文紹介:Generative Adversarial NetworksWisteria
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep LearningSeiya Tokui
 
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Dream to Control: Learning Behaviors by Latent ImaginationDeep Learning JP
 
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスYusuke Uchida
 
ノンパラメトリックベイズを用いた逆強化学習
ノンパラメトリックベイズを用いた逆強化学習ノンパラメトリックベイズを用いた逆強化学習
ノンパラメトリックベイズを用いた逆強化学習Shota Ishikawa
 
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2Daiki Shimada
 

What's hot (20)

RUTILEA社内勉強会第4回 「敵対的生成ネットワーク(GAN)」
RUTILEA社内勉強会第4回 「敵対的生成ネットワーク(GAN)」RUTILEA社内勉強会第4回 「敵対的生成ネットワーク(GAN)」
RUTILEA社内勉強会第4回 「敵対的生成ネットワーク(GAN)」
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
Basic Generative Adversarial Networks
Basic Generative Adversarial NetworksBasic Generative Adversarial Networks
Basic Generative Adversarial Networks
 
A3C解説
A3C解説A3C解説
A3C解説
 
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
 
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
 
[Dl輪読会]introduction of reinforcement learning
[Dl輪読会]introduction of reinforcement learning[Dl輪読会]introduction of reinforcement learning
[Dl輪読会]introduction of reinforcement learning
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
 
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalLarge scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
 
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
 
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
 
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
 
論文紹介:Generative Adversarial Networks
論文紹介:Generative Adversarial Networks論文紹介:Generative Adversarial Networks
論文紹介:Generative Adversarial Networks
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
 
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティス
 
ノンパラメトリックベイズを用いた逆強化学習
ノンパラメトリックベイズを用いた逆強化学習ノンパラメトリックベイズを用いた逆強化学習
ノンパラメトリックベイズを用いた逆強化学習
 
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
 

Similar to 0728 論文紹介第三回

【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?Deep Learning JP
 
Generative Deep Learning #01
Generative Deep Learning #01Generative Deep Learning #01
Generative Deep Learning #01逸人 米田
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門TanUkkii
 
Infer.netによるldaの実装
Infer.netによるldaの実装Infer.netによるldaの実装
Infer.netによるldaの実装池田 直哉
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-EncoderDeep Learning JP
 
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz..."Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...nkazuki
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについてryosuke-kojima
 
[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...
[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...
[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...Deep Learning JP
 
1017 論文紹介第四回
1017 論文紹介第四回1017 論文紹介第四回
1017 論文紹介第四回Kohei Wakamatsu
 
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」fukuoka.ex
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた正志 坪坂
 

Similar to 0728 論文紹介第三回 (17)

【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
Generative Deep Learning #01
Generative Deep Learning #01Generative Deep Learning #01
Generative Deep Learning #01
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門
 
Infer.netによるldaの実装
Infer.netによるldaの実装Infer.netによるldaの実装
Infer.netによるldaの実装
 
PFI Christmas seminar 2009
PFI Christmas seminar 2009PFI Christmas seminar 2009
PFI Christmas seminar 2009
 
MIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearningMIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearning
 
Dive into XGBoost.pdf
Dive into XGBoost.pdfDive into XGBoost.pdf
Dive into XGBoost.pdf
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
 
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz..."Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
6 Info Theory
6 Info Theory6 Info Theory
6 Info Theory
 
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
 
[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...
[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...
[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...
 
1017 論文紹介第四回
1017 論文紹介第四回1017 論文紹介第四回
1017 論文紹介第四回
 
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた
 

0728 論文紹介第三回