More Related Content
PDF
PDF
[DL輪読会]Adversarial Feature Matching for Text Generation PDF
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L... PDF
Generative adversarial networks PPTX
PPTX
Approximate Scalable Bounded Space Sketch for Large Data NLP PPTX
PDF
オープンソースを利用した新時代を生き抜くためのデータ解析 Viewers also liked
PDF
PDF
ディープラーニングによるラーメン二郎全店舗識別と生成 PDF
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv... PDF
PDF
PDF
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料 PDF
PDF
ディープラーニングでラーメン二郎(全店舗)を識別してみた PDF
論文紹介 Semi-supervised Learning with Deep Generative Models PDF
Uncertainty Awareness in Integrating Machine Learning and Game Theory PDF
Deep LearningフレームワークChainerと最近の技術動向 PPTX
猫でも分かるVariational AutoEncoder PPTX
PDF
PDF
2016.03.11 「論文に書(け|か)ない自然言語処理」 ソーシャルメディア分析サービスにおけるNLPに関する諸問題について by ホットリンク 公開用 PDF
Similar to 第35回 強化学習勉強会・論文紹介 [Lantao Yu : 2016]
PDF
PDF
Generative adversarial nets PDF
[DL輪読会]SeqGan Sequence Generative Adversarial Nets with Policy Gradient PDF
[DL Hacks]Self-Attention Generative Adversarial Networks PDF
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換 PDF
PPTX
PPTX
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心) PDF
20181123 seq gan_ sequence generative adversarial nets with policy gradient PPTX
Large scale gan training for high fidelity natural PPTX
[PaperReading]Unsupervised Discrete Sentence Representation Learning for Inte... PPTX
PDF
20210531 ora jam_stackgan PDF
PDF
Generative Adversarial Nets 第35回 強化学習勉強会・論文紹介 [Lantao Yu : 2016]
- 1.
SeqGAN: Sequence GenerativeAdversarial Nets
with Policy Gradient
Lantao Yu† , Weinan Zhang† , Jun Wang‡ , Yong Yu†
†Shanghai Jiao Tong University, ‡University College London
{yulantao,wnzhang,yyu}@apex.sjtu.edu.cn, j.wang@cs.ucl.ac.ukd
第35回 強化学習勉強会 2016/10/05 関根 嵩之
- 2.
概要
• GAN(Generative AdversarialNets)は生成モデルの学習にそれを支
援する識別モデルを用いたもの
• 画像などの現実のデータの生成において大きな成功を収めた
• しかしGANは離散トークンの系列に対しては上手く働かない
• SeqGANという系列の生成の枠組みを提案する
• データの生成器を強化学習における確率的な方策として扱うことでこの問題
を回避
• 合成データや現実のタスクといった幅広い実験で大きな性能向上が見られた
- 3.
- 4.
- 5.
- 6.
- 7.
関連研究
• [深層生成モデルの研究の系譜]
• DBN[Hinton.2006], DAE [Bengio:2013] ,VAE(Variational
Autoencoder)
• 最尤推定によりデータの生成を行う
• [Goodfellow: 2014]は尤度最大化は確率的推定計算の困難さを伴うことを指摘
• GAN
• 最尤推定による学習に伴う困難さを回避、自然画像生成においてめまぐるしい成
功[Denton:2015]
• 一方, GANを系列データ生成に用いてもほとんど進歩がない[Huszar:2015]
- 8.
- 9.
- 10.
- 11.
- 12.
- 13.
- 14.
- 15.
- 16.
- 17.
- 18.
- 19.
実験1 [Synthetic Data](1)
・正確に性能評価を行うためまずはモデルがわかっているLSTMをOracleとして使用。
・普通MLEといえば 本物の分布p,予測qとして の最小化だが、
生成モデルの評価ではTuringテストのように、人間の事前知識に基づいた分布
を用いると を最小化するのが適切
・ここではOracleが人間の観測者だとして
を評価基準とする
- 20.
実験1 [Synthetic Data](2)
Training:10000系列 , Test:100000系列 (長さは10)
黄色の垂直線より左側がSeqGANのpre-trainingSeqGANが既存のモデルよりも良い評価値
- 21.
実験1 [Synthetic Data](3)
(a) ~ (c):
g-steps, d-steps, kなどのメタパラメータが
Gの収束や精度に大きく影響することがわかる
d-stepsに対してg-stepsが多すぎると、Dが適切に
更新されきらない状態になってしまう
(d) :
(a)~(c)では k回のDの更新時に同じ同じデータセット
を使用
(d)では正解データは同じだが不正解データは毎回Gから
生成して異なるものを使用
→ 総じて安定性が向上する
- 22.
- 23.