SlideShare a Scribd company logo
論文紹介
若松 浩平
Generative Adversarial Nets
紹介する論文について
従来の生成モデル
Generative Adversarial Nets
実験
まとめ
紹介する論文について
Generative Adversarial Nets
Advances in Neural Information Processing Systems 27 (NIPS 2014)
Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza,
Bing Xu, David Warde-Farley, Sherjil Ozair,
Aaron Courville, Yoshua Bengio
• 競合する二つのネットワークの学習
• 「ピカソのような」生成モデルと「前例のない」識別モデル概要
背景
• これまでの機械学習では大量のデータが必要
• 「膨大な手作業の可能性」を解消したい
“The most interesting idea in the last 10 years in ML, in my opinion.”
–Yann LeCun
紹介する論文について
従来の生成モデル
Generative Adversarial Nets
実験
まとめ
従来の生成モデル
• Restricted Boltzmann Machines (RBMs)
Deep Boltzmann Machines (DBMs)
• Deep Belief Networks(DBN)
• Deep Learningにおける事前学習法の一種
• 確率分布をMarkov chain Monte Carlo法(MCMC)によって推定する生成モデル
• 単純な問題以外では扱いづらい
• Deep Learningのはじまり
• 無向モデルと有向モデルの両方で計算上の困難の存在
従来の生成モデル
• Generative Stochastic Network(GSN)
• 目的の確率分布からサンプルを生成する学習を行うモデルの一種
• 扱うデータはMarkov Chainを前提とする
• 適用できるモデルが限られる
• Noise-Contrastive Estimation(NCE)
• 確率密度関数を正規化定数まで解析的に特定する必要がある
• 一意に計算可能ではない
従来の生成モデルでは
• 適用できるモデルが少ない
• 学習では誤差関数を解析的に求めるか、推定値を用いる場合がある
といった問題点が存在する
紹介する論文について
従来の生成モデル
Generative Adversarial Nets
実験
まとめ
GANの概要
GeneratorとDiscriminatorからなる二種のネットワーク
紙幣の偽造者と警察の関係によく例えられる
Generator
(偽造者)
• 本物の紙幣に似た偽物の紙幣を作る
• 警察を騙すため、より精巧な偽物を作成する能力は向上していく
• 生成モデルにあたる
GANの概要
GeneratorとDiscriminatorからなる二種のネットワーク
紙幣の偽造者と警察の関係によく例えられる
Generator
(偽造者)
• 本物の紙幣に似た偽物の紙幣を作る
• 警察を騙すため、より精巧な偽物を作成する能力は向上していく
• 生成モデルにあたる
Discriminator
(警察)
• 本物の紙幣と偽物の紙幣を見分ける
• 偽造者によって警察は鑑識のノウハウを学習していく
• 識別モデルにあたる
GANの概要
GeneratorとDiscriminatorからなる二種のネットワーク
紙幣の偽造者と警察の関係によく例えられる
Generator
(偽造者)
• 本物の紙幣に似た偽物の紙幣を作る
• 警察を騙すため、より精巧な偽物を作成する能力は向上していく
• 生成モデルにあたる
Discriminator
(警察)
• 本物の紙幣と偽物の紙幣を見分ける
• 偽造者によって警察は鑑識のノウハウを学習していく
• 識別モデルにあたる
Adversarial(敵対的な)ネットワークを構築することによって
互いの能力を向上させる
両方のモデルが多層パーセプトロンのとき、最も簡単に適用可能
GANの概要
●Generator
𝑃𝑍(𝒛)
𝒛
𝐺 𝒛; 𝜃𝑔
𝐷(𝒙)
前提
: ある種の任意の確率分布
: 個々のノイズサンプル
: 𝒛 を入力としたときの、特徴空間へのマッピング
: 𝒙 が真のデータである確率
• ノイズ𝒛を入力としてデータを生成し、𝑃𝑔に分布させる
• 𝑃𝑔はGeneratorから生成された出力の分布を示す
• log(1 − 𝐷 𝐺 𝒛 )を最小にするように訓練する
●Discriminator
• トレーニングデータとGのデータに正しいラベルを割り当てる
• log 𝐷 𝒙 を最大にするように訓練する
GANの概要
●学習はDを最適化するkstepとGを最適化する1stepが交互に行われる
以下の式を価値関数とするminimaxゲームが行われる
min
𝐺
max
𝐷
𝑉 𝐷, 𝐺 = 𝔼 𝒙~𝑃 𝑑𝑎𝑡𝑎 𝒙 [log 𝐷(𝒙)] + 𝔼 𝒛~𝑃 𝑔 𝒛 [log(1 − 𝐷 𝐺 𝒛 )]
• トレーニングの内部ループでは最適化を完了させない
• Gに合わせた最適化
●実際には上式ではうまく学習できない場合がある
• データ生成よりも分類の方が容易に学習ができる
• 学習の初期ではDの学習が早く進み、Gの勾配が小さくなる
log 𝐷(𝐺(𝒛))を最大化するように学習を行うことで強い勾配を得る
GANの概要
学習の様子
𝑝 𝒙 : 真のデータの確率分布
𝑝 𝑔 : 生成データの確率分布
識別の確率
GANの基礎理論
GANの基礎理論
1. 𝑝 𝑔 = 𝑝 𝒅𝒂𝒕𝒂の最適性
任意のGに対して最適なDを考える.
Proposition 1. Gを固定したとき、最適なGは以下の式によって与えられる.
𝐷 𝐺
∗
𝒙 =
𝑝 𝑑𝑎𝑡𝑎(𝒙)
𝑝 𝑑𝑎𝑡𝑎 𝒙 + 𝑝 𝑔(𝒙)
Proof. Dの学習はあらゆるGに対して𝑉(𝐺, 𝐷)を最大にすることを目標とする.
𝑉 𝐺, 𝐷 =
𝒙
𝑝 𝑑𝑎𝑡𝑎 𝒙 log 𝐷 𝒙 𝑑𝑥 +
𝒙
𝑝𝒛 𝒛 log 1 − 𝐷 𝑔(𝒛) 𝑑𝑧
= 𝒙
𝑝 𝑑𝑎𝑡𝑎 𝒙 log 𝐷 𝒙 𝑑𝑥 + 𝑝 𝑔 𝒙 log 1 − 𝐷 𝒙 𝑑𝑥
あらゆる 𝑎, 𝑏 ∈ ℝ2
∖ 0, 0 について、関数y → 𝑎 log 𝑦 + 𝑏 log( 1 − 𝑦)の最大値は[0, 1]の時
𝑎
𝑎+𝑏
である.
concluding the proof.
GANの基礎理論
1. 𝑝 𝑔 = 𝑝 𝒅𝒂𝒕𝒂の最適性
Dの目標は条件付き確率𝑃(𝑌 = 𝑦|𝒙)を推定する対数尤度を最大にすることと解釈できる.
ここで𝑌は𝒙が𝑝 𝑑𝑎𝑡𝑎(𝑦 = 1)または𝑝 𝑔 𝑦 = 0 のどちらから生成されたかを示す.
いま、Minimaxゲームの式を以下のように書き換えることができる.
GANの基礎理論
1. 𝑝 𝑔 = 𝑝 𝒅𝒂𝒕𝒂の最適性
Theorem 1. 𝑝 𝑔 = 𝑝 𝒅𝒂𝒕𝒂を満たす場合にのみ、仮想的な学習基準𝐶(𝐺)を得る.
このとき、𝐶 𝐺 = −log 4となる.
Proof. 𝑝 𝑔 = 𝑝 𝑑𝑎𝑡𝑎のとき、𝐷 𝐺
∗
𝒙 =
1
2
. したがって𝐶 𝐺 = log
1
2
+ log
1
2
= − log 4が得られる.
最も良い𝐶(𝐺)の値が𝑝 𝑔 = 𝑝 𝑑𝑎𝑡𝑎の場合のみに得られるかを確認するため、以下の式
𝔼 𝒙~𝑃 𝑑𝑎𝑡𝑎
[−log2] + 𝔼 𝒙~𝑃 𝑔
[−log 2] = − log 4
を𝐶 𝐺 = 𝑉(𝐷 𝐺
∗
, 𝐺)から減算し、次の式を得る.
ここで、𝐾𝐿はKLダイバージェンスを表す.
KLダイバージェンス : 二つの確率分布の差異を表現する
GANの基礎理論
1. 𝑝 𝑔 = 𝑝 𝒅𝒂𝒕𝒂の最適性
上式はJSダイバージェンスに変形できる.
二つの確率分布間のJSダイバージェンスは常に非負の値をとり、かつ
二つが正しい場合にのみ0となる.
したがって、 𝐶∗
= −log 4は𝐶(𝐺)の最小値であり、その解は𝑝 𝑔 = 𝑝 𝑑𝑎𝑡𝑎すなわち
生成モデルが完全に真の生成データプロセスを模倣できた場合のみである.
concluding the proof.
GANの基礎理論
2. Algorithm1の収束
Proposition 2. GとDに十分な能力があり、かつAlgorithm1の各ステップにおいて
Dが与えられたGに対して最適化され, 𝑝 𝑔は以下の基準を改善するように更新されるとする.
𝔼 𝒙~𝑃 𝑑𝑎𝑡𝑎
[log 𝐷 𝐺
∗
(𝒙)] + 𝔼 𝒛~𝑃 𝑔
[log(1 − 𝐷 𝐺
∗
𝐺 𝒙 )]
このとき、 𝑝 𝑔は𝑝 𝑑𝑎𝑡𝑎に収束する.
Proof. 𝑉 𝐺, 𝐷 = 𝑈(𝑝 𝑔, 𝐷)を上記の基準を満たした𝑝 𝑔の関数と考える. 𝑈(𝑝 𝑔, 𝐷)は𝑝 𝑔で凸である.
凸関数の上限における劣微分は、最大値に達する関数の微分を含む.
つまり、𝑓 𝑥 = sup
𝛼∈𝒜
𝑓𝛼(𝑥)かつ𝑓𝛼(𝑥)が全ての𝛼について凸ならば、
𝛽 = arg sup
𝛼∈𝒜
𝑓𝛼(𝑥)のとき𝜕𝑡 𝛽(𝑥) ∈ 𝜕𝑓である.
これは、対応するGが与えられた最適なDにおいて𝑝 𝑔の降下する勾配を更新することと等価である.
sup
𝐷
𝑈(𝑝𝑔, 𝐷) は𝑝𝑔で凸であり、𝑇ℎ𝑚 1で証明されたように一意の最適値を持つため、
𝑝𝑔の更新が十分に小さい場合、𝑝𝑔は𝑝𝑥に収束する. concluding the proof.
紹介する論文について
従来の生成モデル
Generative Adversarial Nets
実験
まとめ
実験
実験方法
• MNIST, Toronto Face Database(TFD), CIFAR-10をGANで学習
• Generatorは活性化関数としてReLU関数とシグモイド関数を、
Discriminatorはmaxout関数を使用
• DiscriminatorではDropoutを使用
• 理論的にはGeneratorにおいてDropoutやノイズの入力を中間層で用いても
よいが、実験ではノイズは最下層のみへの入力として使用
• Gで生成されたデータにガウシアンカーネル密度推定を適用し、
得られた分布の対数尤度からpgがテストセットである確率を推定する
• ガウシアンカーネル密度推定の𝜎パラメータは検証用のデータから
交差検証法で求める
実験
実験結果
MNIST, TFDに対して各モデルの生成した確率分布の対数尤度
実験
実験結果
Generatorの生成した画像
実験
実験結果
完成したモデルの𝒛空間の座標間を線型補完して得られた画像
紹介する論文について
従来の生成モデル
Generative Adversarial Nets
実験
まとめ
利点と欠点
利点
• マルコフ連鎖が不要で、鮮鋭な出力が得られる
• 勾配の計算に誤差逆伝播を用いることができる
• 様々なモデルを適用可能
• 計算可能である
• Discriminatorの評価を考慮してGeneratorの学習が行われるため
入力をそのまま覚えることがない
欠点
• 明示的な𝑝 𝑔が存在しない
• DとGはうまく同期しながら学習を行わなければならない
現在の関連技術
LAPGAN(Laplacian Pyramid of Generative Adversarial Networks)
• CNNを使ったGAN
• 段階的に高解像度な画像を得ることができる
現在の関連技術
DCGAN(Deep Convolutional Generative Adversarial Network)
• CNNを使ったGAN
• ネットワークの構造などの改善
• 段階を経ずに高解像度な画像を得ることができる
• 本物らしさが急激に増加した
現在の関連技術
DCGAN(Deep Convolutional Generative Adversarial Network)
生成されたベッドルームの画像
現在の関連技術
DCGAN(Deep Convolutional Generative Adversarial Network)
入力の𝒛ベクトルで演算を行なった結果
現在の関連技術
SRGAN(Super Resolution Generative Adversarial Network)
• GANを超解像に応用した技術
• 従来技術と違って「本物っぽく」できる(GANの特性)
現在の関連技術
StackGAN
• Generatorを二段階にすることでよりクオリティの高い画像を得られる
• テキストとノイズを入力とすることで生成される
まとめ
• 様々なモデルに適用可能
• 生成モデルの学習を計算可能にした
現在最も熱いモデルの一つだと思います!
GANとは
Generative Adversarial Nets
画像を生成するGeneratorと識別するDiscriminatorが
相互に学習し合うモデル
ここがすごいぞ

More Related Content

What's hot

【機械学習勉強会】画像の翻訳 ”Image-to-Image translation”
【機械学習勉強会】画像の翻訳 ”Image-to-Image translation” 【機械学習勉強会】画像の翻訳 ”Image-to-Image translation”
【機械学習勉強会】画像の翻訳 ”Image-to-Image translation”
yoshitaka373
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
 
Jubatus Casual Talks #2 異常検知入門
Jubatus Casual Talks #2 異常検知入門Jubatus Casual Talks #2 異常検知入門
Jubatus Casual Talks #2 異常検知入門
Shohei Hido
 
[DL輪読会]自動運転技術の課題に役立つかもしれない論文3本
[DL輪読会]自動運転技術の課題に役立つかもしれない論文3本[DL輪読会]自動運転技術の課題に役立つかもしれない論文3本
[DL輪読会]自動運転技術の課題に役立つかもしれない論文3本
Deep Learning JP
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
 
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
Deep Learning JP
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
 
【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...
【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...
【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...
Deep Learning JP
 
[DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima...
 [DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima... [DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima...
[DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima...
Deep Learning JP
 
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
Deep Learning JP
 
自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning自然言語処理のためのDeep Learning
自然言語処理のためのDeep LearningYuta Kikuchi
 
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由
tancoro
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
 
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Koichi Hamada
 
Reinforcement Learning @ NeurIPS2018
Reinforcement Learning @ NeurIPS2018Reinforcement Learning @ NeurIPS2018
Reinforcement Learning @ NeurIPS2018
佑 甲野
 
【論文読み会】Self-Attention Generative Adversarial Networks
【論文読み会】Self-Attention Generative  Adversarial Networks【論文読み会】Self-Attention Generative  Adversarial Networks
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
 
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
Deep Learning JP
 

What's hot (20)

【機械学習勉強会】画像の翻訳 ”Image-to-Image translation”
【機械学習勉強会】画像の翻訳 ”Image-to-Image translation” 【機械学習勉強会】画像の翻訳 ”Image-to-Image translation”
【機械学習勉強会】画像の翻訳 ”Image-to-Image translation”
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
Jubatus Casual Talks #2 異常検知入門
Jubatus Casual Talks #2 異常検知入門Jubatus Casual Talks #2 異常検知入門
Jubatus Casual Talks #2 異常検知入門
 
[DL輪読会]自動運転技術の課題に役立つかもしれない論文3本
[DL輪読会]自動運転技術の課題に役立つかもしれない論文3本[DL輪読会]自動運転技術の課題に役立つかもしれない論文3本
[DL輪読会]自動運転技術の課題に役立つかもしれない論文3本
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
 
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...
【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...
【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...
 
[DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima...
 [DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima... [DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima...
[DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima...
 
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
 
自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning
 
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
 
Reinforcement Learning @ NeurIPS2018
Reinforcement Learning @ NeurIPS2018Reinforcement Learning @ NeurIPS2018
Reinforcement Learning @ NeurIPS2018
 
【論文読み会】Self-Attention Generative Adversarial Networks
【論文読み会】Self-Attention Generative  Adversarial Networks【論文読み会】Self-Attention Generative  Adversarial Networks
【論文読み会】Self-Attention Generative Adversarial Networks
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
[DL輪読会]SOM-VAE: Interpretable Discrete Representation Learning on Time Series
 

Similar to 0728 論文紹介第三回

【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
Deep Learning JP
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
magoroku Yamamoto
 
Generative Deep Learning #01
Generative Deep Learning #01Generative Deep Learning #01
Generative Deep Learning #01
逸人 米田
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門
TanUkkii
 
Infer.netによるldaの実装
Infer.netによるldaの実装Infer.netによるldaの実装
Infer.netによるldaの実装池田 直哉
 
MIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearningMIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearning
Takayoshi Yamashita
 
Dive into XGBoost.pdf
Dive into XGBoost.pdfDive into XGBoost.pdf
Dive into XGBoost.pdf
Yuuji Hiramatsu
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
Deep Learning JP
 
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz..."Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
nkazuki
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
 
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
ryosuke-kojima
 
[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...
[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...
[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...
Deep Learning JP
 
1017 論文紹介第四回
1017 論文紹介第四回1017 論文紹介第四回
1017 論文紹介第四回
Kohei Wakamatsu
 
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
fukuoka.ex
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた
正志 坪坂
 

Similar to 0728 論文紹介第三回 (17)

【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
Generative Deep Learning #01
Generative Deep Learning #01Generative Deep Learning #01
Generative Deep Learning #01
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門
 
Infer.netによるldaの実装
Infer.netによるldaの実装Infer.netによるldaの実装
Infer.netによるldaの実装
 
PFI Christmas seminar 2009
PFI Christmas seminar 2009PFI Christmas seminar 2009
PFI Christmas seminar 2009
 
MIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearningMIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearning
 
Dive into XGBoost.pdf
Dive into XGBoost.pdfDive into XGBoost.pdf
Dive into XGBoost.pdf
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
 
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz..."Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
"Puzzle-Based Automatic Testing: Bringing Humans into the Loop by Solving Puz...
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
6 Info Theory
6 Info Theory6 Info Theory
6 Info Theory
 
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
 
[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...
[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...
[DL輪読会]STORM: An Integrated Framework for Fast Joint-Space Model-Predictive C...
 
1017 論文紹介第四回
1017 論文紹介第四回1017 論文紹介第四回
1017 論文紹介第四回
 
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
【macOSにも対応】AI入門「第3回:数学が苦手でも作って使えるKerasディープラーニング」
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた
 

0728 論文紹介第三回