Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Deep Learning JP
6,322 views
[DL輪読会]Adversarial Feature Matching for Text Generation
2017/7/7 Deep Learning JP: http://deeplearning.jp/seminar-2/
Technology
◦
Related topics:
Deep Learning
•
Read more
9
Save
Share
Embed
Embed presentation
Download
Downloaded 30 times
1
/ 33
2
/ 33
3
/ 33
4
/ 33
5
/ 33
6
/ 33
7
/ 33
8
/ 33
9
/ 33
10
/ 33
11
/ 33
12
/ 33
13
/ 33
14
/ 33
15
/ 33
16
/ 33
17
/ 33
18
/ 33
19
/ 33
20
/ 33
21
/ 33
22
/ 33
23
/ 33
24
/ 33
25
/ 33
26
/ 33
27
/ 33
28
/ 33
29
/ 33
30
/ 33
31
/ 33
32
/ 33
33
/ 33
More Related Content
PPTX
Triplet Loss 徹底解説
by
tancoro
PPTX
識別モデルと生成モデルと損失データ
by
Shohei Miyashita
PPTX
畳み込みニューラルネットワークの高精度化と高速化
by
Yusuke Uchida
PDF
アンサンブル木モデル解釈のためのモデル簡略化法
by
Satoshi Hara
PDF
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
by
SSII
PDF
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
by
Deep Learning JP
PDF
ELBO型VAEのダメなところ
by
KCS Keio Computer Society
PPTX
Curriculum Learning (関東CV勉強会)
by
Yoshitaka Ushiku
Triplet Loss 徹底解説
by
tancoro
識別モデルと生成モデルと損失データ
by
Shohei Miyashita
畳み込みニューラルネットワークの高精度化と高速化
by
Yusuke Uchida
アンサンブル木モデル解釈のためのモデル簡略化法
by
Satoshi Hara
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
by
SSII
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
by
Deep Learning JP
ELBO型VAEのダメなところ
by
KCS Keio Computer Society
Curriculum Learning (関東CV勉強会)
by
Yoshitaka Ushiku
What's hot
PDF
A summary on “On choosing and bounding probability metrics”
by
Kota Matsui
PDF
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
by
SSII
PDF
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
by
Deep Learning JP
PDF
[DL輪読会]ICLR2020の分布外検知速報
by
Deep Learning JP
PDF
10分でわかる主成分分析(PCA)
by
Takanori Ogata
PDF
【メタサーベイ】数式ドリブン教師あり学習
by
cvpaper. challenge
PDF
グラフニューラルネットワークとグラフ組合せ問題
by
joisino
PDF
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
by
Hideki Tsunashima
PDF
モデルではなく、データセットを蒸留する
by
Takahiro Kubo
PDF
[DL輪読会]Deep Learning 第15章 表現学習
by
Deep Learning JP
PDF
自己教師学習(Self-Supervised Learning)
by
cvpaper. challenge
PPTX
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
by
Deep Learning JP
PPTX
[DL輪読会]Flow-based Deep Generative Models
by
Deep Learning JP
PPTX
畳み込みニューラルネットワークの研究動向
by
Yusuke Uchida
PDF
論文紹介 "DARTS: Differentiable Architecture Search"
by
Yuta Koreeda
PDF
機械学習モデルの判断根拠の説明
by
Satoshi Hara
PPTX
[DL輪読会]DropBlock: A regularization method for convolutional networks
by
Deep Learning JP
PPTX
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
by
Deep Learning JP
PDF
cvpaper.challenge 研究効率化 Tips
by
cvpaper. challenge
PDF
方策勾配型強化学習の基礎と応用
by
Ryo Iwaki
A summary on “On choosing and bounding probability metrics”
by
Kota Matsui
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
by
SSII
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
by
Deep Learning JP
[DL輪読会]ICLR2020の分布外検知速報
by
Deep Learning JP
10分でわかる主成分分析(PCA)
by
Takanori Ogata
【メタサーベイ】数式ドリブン教師あり学習
by
cvpaper. challenge
グラフニューラルネットワークとグラフ組合せ問題
by
joisino
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
by
Hideki Tsunashima
モデルではなく、データセットを蒸留する
by
Takahiro Kubo
[DL輪読会]Deep Learning 第15章 表現学習
by
Deep Learning JP
自己教師学習(Self-Supervised Learning)
by
cvpaper. challenge
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
by
Deep Learning JP
[DL輪読会]Flow-based Deep Generative Models
by
Deep Learning JP
畳み込みニューラルネットワークの研究動向
by
Yusuke Uchida
論文紹介 "DARTS: Differentiable Architecture Search"
by
Yuta Koreeda
機械学習モデルの判断根拠の説明
by
Satoshi Hara
[DL輪読会]DropBlock: A regularization method for convolutional networks
by
Deep Learning JP
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
by
Deep Learning JP
cvpaper.challenge 研究効率化 Tips
by
cvpaper. challenge
方策勾配型強化学習の基礎と応用
by
Ryo Iwaki
Viewers also liked
PDF
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
by
Deep Learning JP
PDF
論文紹介 Semi-supervised Learning with Deep Generative Models
by
Seiya Tokui
PDF
あなたの業務に機械学習を活用する5つのポイント
by
Shohei Hido
PDF
ディープラーニングでラーメン二郎(全店舗)を識別してみた
by
knjcode
PDF
ディープラーニングによるラーメン二郎全店舗識別と生成
by
knjcode
PDF
Generative adversarial networks
by
Shuyo Nakatani
PDF
Deep LearningフレームワークChainerと最近の技術動向
by
Shunta Saito
PDF
Uncertainty Awareness in Integrating Machine Learning and Game Theory
by
Rikiya Takahashi
PDF
Argmax Operations in NLP
by
Hitoshi Nishikawa
PDF
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
by
tm_2648
PDF
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
by
Yuya Unno
PDF
新たなRNNと自然言語処理
by
hytae
PPTX
「人工知能」の表紙に関するTweetの分析・続報
by
Fujio Toriumi
PPTX
Approximate Scalable Bounded Space Sketch for Large Data NLP
by
Koji Matsuda
PPTX
Twitter炎上分析事例 2014年
by
Takeshi Sakaki
PDF
2016.03.11 「論文に書(け|か)ない自然言語処理」 ソーシャルメディア分析サービスにおけるNLPに関する諸問題について by ホットリンク 公開用
by
Takeshi Sakaki
PPTX
第35回 強化学習勉強会・論文紹介 [Lantao Yu : 2016]
by
Takayuki Sekine
PDF
現在のDNNにおける未解決問題
by
Daisuke Okanohara
PDF
オンコロジストなるためのスキル
by
musako-oncology
PDF
オープンソースを利用した新時代を生き抜くためのデータ解析
by
nakapara
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
by
Deep Learning JP
論文紹介 Semi-supervised Learning with Deep Generative Models
by
Seiya Tokui
あなたの業務に機械学習を活用する5つのポイント
by
Shohei Hido
ディープラーニングでラーメン二郎(全店舗)を識別してみた
by
knjcode
ディープラーニングによるラーメン二郎全店舗識別と生成
by
knjcode
Generative adversarial networks
by
Shuyo Nakatani
Deep LearningフレームワークChainerと最近の技術動向
by
Shunta Saito
Uncertainty Awareness in Integrating Machine Learning and Game Theory
by
Rikiya Takahashi
Argmax Operations in NLP
by
Hitoshi Nishikawa
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
by
tm_2648
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
by
Yuya Unno
新たなRNNと自然言語処理
by
hytae
「人工知能」の表紙に関するTweetの分析・続報
by
Fujio Toriumi
Approximate Scalable Bounded Space Sketch for Large Data NLP
by
Koji Matsuda
Twitter炎上分析事例 2014年
by
Takeshi Sakaki
2016.03.11 「論文に書(け|か)ない自然言語処理」 ソーシャルメディア分析サービスにおけるNLPに関する諸問題について by ホットリンク 公開用
by
Takeshi Sakaki
第35回 強化学習勉強会・論文紹介 [Lantao Yu : 2016]
by
Takayuki Sekine
現在のDNNにおける未解決問題
by
Daisuke Okanohara
オンコロジストなるためのスキル
by
musako-oncology
オープンソースを利用した新時代を生き抜くためのデータ解析
by
nakapara
Similar to [DL輪読会]Adversarial Feature Matching for Text Generation
PPTX
[DL輪読会]相互情報量最大化による表現学習
by
Deep Learning JP
PDF
[DL Hacks]Self-Attention Generative Adversarial Networks
by
Deep Learning JP
PPTX
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
by
Makoto Takenaka
PDF
[DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima...
by
Deep Learning JP
PDF
Convolutional Neural Netwoks で自然言語処理をする
by
Daiki Shimada
PPTX
[DL輪読会]StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators
by
Deep Learning JP
PDF
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
by
株式会社メタップスホールディングス
PPTX
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)
by
Yusuke Iwasawa
PDF
AttnGAN
by
Takaaki Ishii
PPTX
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
by
Deep Learning JP
PDF
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
by
Koichi Hamada
PPTX
Bridging between Vision and Language
by
Shion Honda
PDF
[DL輪読会]Toward Multimodal Image-to-Image Translation (NIPS'17)
by
Deep Learning JP
PDF
Generative Adversarial Networks (GAN) @ NIPS2017
by
Koichi Hamada
PDF
Generative adversarial nets
by
Keisuke Hosaka
PPTX
[DL輪読会]Adversarial Text Generation via Feature-Mover's Distance (NIPS 2018)
by
Deep Learning JP
PDF
CV勉強会ICCV2017読み会:Towards Diverse and Natural Image Descriptions via a Conditi...
by
Toshiki Sakai
PDF
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
by
Daiki Shimada
PDF
論文輪読: Generative Adversarial Text to Image Synthesis
by
mmisono
PDF
ICML2016読み会 Generative AdversarialText to Image Synthesis
by
kazuyuki hiroshiba
[DL輪読会]相互情報量最大化による表現学習
by
Deep Learning JP
[DL Hacks]Self-Attention Generative Adversarial Networks
by
Deep Learning JP
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
by
Makoto Takenaka
[DL輪読会]StarGAN: Unified Generative Adversarial Networks for Multi-Domain Ima...
by
Deep Learning JP
Convolutional Neural Netwoks で自然言語処理をする
by
Daiki Shimada
[DL輪読会]StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators
by
Deep Learning JP
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
by
株式会社メタップスホールディングス
[DL輪読会] GAN系の研究まとめ (NIPS2016とICLR2016が中心)
by
Yusuke Iwasawa
AttnGAN
by
Takaaki Ishii
[DL輪読会]HoloGAN: Unsupervised learning of 3D representations from natural images
by
Deep Learning JP
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
by
Koichi Hamada
Bridging between Vision and Language
by
Shion Honda
[DL輪読会]Toward Multimodal Image-to-Image Translation (NIPS'17)
by
Deep Learning JP
Generative Adversarial Networks (GAN) @ NIPS2017
by
Koichi Hamada
Generative adversarial nets
by
Keisuke Hosaka
[DL輪読会]Adversarial Text Generation via Feature-Mover's Distance (NIPS 2018)
by
Deep Learning JP
CV勉強会ICCV2017読み会:Towards Diverse and Natural Image Descriptions via a Conditi...
by
Toshiki Sakai
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
by
Daiki Shimada
論文輪読: Generative Adversarial Text to Image Synthesis
by
mmisono
ICML2016読み会 Generative AdversarialText to Image Synthesis
by
kazuyuki hiroshiba
More from Deep Learning JP
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
by
Deep Learning JP
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
by
Deep Learning JP
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
by
Deep Learning JP
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
by
Deep Learning JP
PPTX
【DL輪読会】Hopfield network 関連研究について
by
Deep Learning JP
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
by
Deep Learning JP
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
by
Deep Learning JP
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
by
Deep Learning JP
PPTX
【DL輪読会】事前学習用データセットについて
by
Deep Learning JP
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
by
Deep Learning JP
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
by
Deep Learning JP
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
by
Deep Learning JP
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
by
Deep Learning JP
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
by
Deep Learning JP
PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
by
Deep Learning JP
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
by
Deep Learning JP
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
by
Deep Learning JP
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
by
Deep Learning JP
PPTX
【DL輪読会】マルチモーダル LLM
by
Deep Learning JP
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
by
Deep Learning JP
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
by
Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
by
Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
by
Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
by
Deep Learning JP
【DL輪読会】Hopfield network 関連研究について
by
Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
by
Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?
by
Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
by
Deep Learning JP
【DL輪読会】事前学習用データセットについて
by
Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
by
Deep Learning JP
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
by
Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
by
Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
by
Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
by
Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
by
Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
by
Deep Learning JP
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
by
Deep Learning JP
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
by
Deep Learning JP
【DL輪読会】マルチモーダル LLM
by
Deep Learning JP
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
by
Deep Learning JP
[DL輪読会]Adversarial Feature Matching for Text Generation
1.
Adversarial Feature Matching for
Text Generation 2017/7/7 DL輪読会 松尾研 曽根岡侑也 1
2.
メタ情報 • 著者 - Yizhe
Zhang, Zhe Gan, Kai Fan, Zhi Chen, Ricardo Henao, Lawrence Carin - NIPS2016 ✕ 3, ICML ✕ 2のデューク大学PhD • Accepted by ICML2017(arXiv on 12 Jun 2017) • NIPS2016 Workshopの進化版 2
3.
概要 • 文書生成にGANを用いるTextGANを提案 - GeneratorはLSTM、DiscriminatorはCNN -
FeatureMatchingと再構成の項を目的関数に追加し、 ModeCollapse・勾配消失問題を軽減 - Soft-argmax近似、Pre-training、soft-labeling等の 学習テクニック • SeqGANよりいい評価 & 現実的な文生成に成功 3
4.
背景:自然言語生成 • 自然言語生成の系譜 - 文書から確率分布を評価し、その分布からサンプリング -
RNNを用いたAutoEncoder [Cho et al.(2014)] - RNNベースのVAE [Bowman et al.(2016)] • RNNベースではうまくいかない - 潜在空間の一部しかカバーできていない - Exposure Bias:文後半に向けてズレが蓄積 4
5.
背景:GAN • 本物らしく作るGenerator vs
偽物を見抜くDiscriminator - Dは最大化、Gは最小化するように最適化 - DはJSDを近似し、Gは近似されたJSDを最小化する方向に • GANの問題点 - ModeCollapsing:潜在変数から同じ結果を作る - Dが局所解に近づいた場合、勾配消失が起きる (EBGANのTVDも同様) 5
6.
提案手法:TextGAN • GはLSTM、DとEはCNNを使用 • Feature
Machingを採用 [Salimans et al. (2016)] 6
7.
TextGANの目的関数 7 (λr, λmはハイパーパラメータ) → GANと同じ →
Gは最小化する → Dは最大化する → 潜在変数の再構成時の誤差
8.
TextGANの目的関数 8 (λr, λmはハイパーパラメータ) ③ ② → GANと同じ →
Gは最小化する → Dは最大化する → 潜在変数の再構成時の誤差 ③① ② ①
9.
Maximum Mean Discrepancy(MMD) •
Gaussianカーネルで再生核ヒルベルト空間(RKHS)へ写像し、 平均の差を用いて一致度を測定 [Gretton et al (2012)] 9 → 今回はGaussian
10.
TextGANの目的関数 10 (λr, λmはハイパーパラメータ) → GANと同じ →
Gは最小化する → Dは最大化する → 潜在変数の再構成時の誤差 ③① ② ① 偽物を見抜く方向に ② 潜在変数を最大限保存する方向に ③ Generatorがあわせるのが難しい特徴量を見つける方向に
11.
Discriminator/Encoder:CNN • 文を学習済みの埋め込み行列でk ✕
Tの行列に変換 • Windowサイズが異なるConvolutionのフィルタをかけ、フィル タ毎にMaxPooling(活性化関数はtanh) • DはMLPの後にSoftmaxで真偽を判定、EはMLPでzを復元 11 [Kim et al.(2014)]
12.
Generator:LSTM • よくあるLSTM • yは生成された単語を埋め込みベクトルにしたもの •
zは毎回渡す 12
13.
データ効率①:Compressing Network • 課題 GaussianカーネルMMDでは特徴ベクトルfの次元に応じて、 ミニバッチのサイズを大きくする必要がある •
Compressing Network - 特徴ベクトルfを圧縮するための全結合レイヤーを追加 - 変換後の次元数はデータ効率と表現力のトレードオフ 13
14.
データ効率②:Gaussian covariance matching •
カーネルトリックの代わりに下記を使う 14 : の共分散 : の平均
15.
学習テクニック①:Soft-argmax approximation • 離散変数を含むため、Gの学習での勾配評価は難しい •
下記の式で近似(Gumbel-Softmaxに近い?) 15 Soft-argmax近似元の式
16.
学習テクニック②:Pre-training • D/E(CNN) - Permutation
training - テキストの2単語を入れ替えて偽の文を作り学習 - 単語追加・消去より難しいタスク • G(LSTM) - CNN-LSTM autoencoderを利用 [Gan et al. (2016)] 16
17.
学習テクニック③:Soft-labeling • 1 or
0とするのが普通であるが、正解=0.7-1.2、偽=0-0.3か らランダムにサンプルする[Salimans et al (2016)] • 本論文では、最大0.99, 最低0.01としている 17
18.
実験 • データ - BookCorpus(70m)
+ Arxiv(5m)から各50万文ずつ • 潜在変数zは900次元 • D/E(CNN) - Windowサイズは3,4,5で、各300個ずつのfilter - 活性化関数はSigmoid - D:900-200-2のMLPで真偽を判定z、出力層はSoftmax - E:900-900-900でzを再構成、出力層はtanh • LSTM:隠れ層500 18
19.
実験 • その他 - Gを5回更新したらDを1回更新 -
Gaussianカーネルのσ:20前後 - Optimizer:Adam(学習率:5 ✕ 10^-5) - ミニバッチ:256 - GのLossとBLEU (正解と生成の類似度)でValidation - 50 epoch (3days) 19
20.
実験結果①:特徴ベクトルの分布 • 本物と偽物の2000文ずつの特徴ベクトル(900次元)の 平均と共分散をプロット 20
21.
実験結果②:定量的比較 21 ※ SeqGANは金子さんの輪読参照(16/9/30) MM:Mean Matching,
CM:Covariance Matching MMD-L:compressed to 200次元
22.
実験結果③:生成文 • 文法に関してはDがうまく機能しており、約95%で偽物を識別 - 丸括弧やクォーテーションをあわせて生成している -
文法的には正しいが20語以上になると意味がおかしくなる 22
23.
実験結果④:潜在特徴空間の軌道 • 文Aから文Bまで潜在変数を連続的に変更した際の変化 • AEより意味的にも文法的にも正しいが、大きな変化が起きる 23
24.
まとめ • 文書生成にGANを用いるTextGANを提案 - GeneratorはLSTM、DiscriminatorはCNN -
FeatureMatchingと再構成の項を目的関数に追加し、 ModeCollapse・勾配消失問題を軽減 - Soft-argmax近似、Pre-training、soft-labeling等の 学習テクニック • SeqGANよりいい評価 & 現実的な文生成に成功 24
25.
Appendix 25
26.
【参考】Jensen-Shannonダイバージェンス(JSD) • KLダイバージェンス:分布と分布の差異の大きさ • JSダイバージェンス:KLに対称性を付加 26
27.
【参考】 MMDのPytorch実装 27
28.
【参考】TextCNN実装 • https://github.com/dennybritz/cnn-text-classification-tf 28
29.
関連研究:Generative Moment Matching
Networks(GMMNs) • GANのDをMMDで代替するアイデアで同じ • 自然言語で使えない(NNで使う場合近似する) - 計算量が重く次元数が大きいケースでは厳しい - 単語ベースの類似度のため、文構造を考慮しない (boy is swimming と a boy is swimming) 29
30.
関連研究:その他 • Kernelized Stein
Discrepancy(KSD) - MMDからKSDにするのはFuture Work • WGAN - JSDよりWassersteinのほうがよさそうだが、MMDを 使っているので勾配消失は軽減されている 30
31.
【参考】BLEU 31
32.
FutureWork • KSDの導入 • DropOut •
強化学習の戦略を用いてLSTMをアップデート • Conditional GAN • reverse-order LSTM 32
33.
【参考】KSD 33
Download