SlideShare a Scribd company logo
1 of 29
Download to read offline
AttnGAN:
Fine-Grained Text to Image Generation with Attentional Generative Adversarial Networks
Tao Xu, Pengchuan Zhang, Qiuyuan Huang, Han Zhang, Zhe Gan, Xiaolei Huang, Xiaodong He
~GANのキホンから~
2018/10/29
@第1回 NIPS 2018(世界初!!) 理論と実装を話し合う会
自己紹介
石井 孝明
@takaaki5564
仕事・興味:
大学院では非平衡統計物理を研究。
現在はComputer Visionのアプリ開発。
Deep Learning・SLAMなどアルゴリズムのASIC最適化を仕事にしています。
Udemy:
https://www.udemy.com/yolossd-a/learn/v4/overview
趣味:
Amazon映画、漫画、フットサル
紹介論文
AttnGAN : Fine-Grained Text to Image Generation with Attentional Generative Adversarial Networks
Tao Xu, Pengchuan Zhang, Qiuyuan Huang, Han Zhang, Zhe Gan, Xiaolei Huang, Xiaodong He
CVPR2018
本発表では、
・GANの基本を復習
・AttnGANモデルの概要について
説明します。(実装についてはまた別の機会に!)
GANとは?
登場人物
・ある分布pに従うN次元のノイズz
・真のデータx(Dの訓練データ)
・Generator(G):ノイズzを入力として偽データG(z)を生成
・Discriminator(D):入力を判定。真ならD=1, 偽ならD=0
学習手順
・Dは、真のデータ(D=1)とGが生成した偽のデータ(D=0)を識別できるよう学習(右辺の最大化)
・Gは、Dに真のデータ(D=1)と判別されるデータを生成するように学習(右辺の最小化)
⇒これを交互に繰り返すことで、Dの識別能力とGの生成能力が共に上がっていく(敵対的学習)
・Generative Adversarial Networksの略。日本語では敵対的生成ネットワーク。
・Ian Goodfellow氏により考案され、AI分野で最もホットなトピック。なにより見た目がインパクト。
・基本原理:以下の損失関数により、2つのネットワークGとDを交互に学習していく。
ここでいくつかの疑問が。
ノイズzの正体ってなに…?
⇒ AutoEncoder (自己符号化器) のボトルネックに相当する潜在変数 (Latent Variable) に相当するもの。
潜在空間はいわば概念のようなもので、例えば「腕掛けのある椅子の画像から腕掛けを引き算」したりできる。
GANとは?
生成器Gはノイズzからどうやって画像を生成するのか?
⇒ Transposed Convolution により入力よりも高解像度なデータを生成する。
zとG(z)にはどんな関係があるのか?
⇒ Gの生成する画像は、入力がzのときの出力x=(x0,x1,x2,....)の条件付き同時確率分布P(x|z)の、サンプリングしたもの
とみなせる。つまりzを連続的に変化させるとGの生成画像も連続的に変化させることができる。
GANとは?
GANの何が興味深いか
人がもつ「創造力」をAIももてる?
例:GANのアートへの応用
エドモンド・ベラミーの肖像が約4800万円)の値で落札
GANアートの先駆者ロビー・バラットの興味深いコメント:
ところがGANを訓練した後、潜在空間と呼ばれるものが出現する。存在しうるすべての絵は、生成ネットワークに供給して
いる高次元空間のなかに配置されている。この絵の配置はランダムではなく、しっかり理にかなっているんだ。だから以前
の絵とよく似た絵が欲しければ、最初の絵と非常に近い点を選びとればできる。一方、次元のなかには実は配色を示してい
るようなものもある。よりカラフルにしたい世代があれば、次元の1つを調整すればできる。つまり、いくらかコントロールはで
きるが、実行後にしかできない。GANに特定の絵を描くようには伝えられないが、好きな絵を見つけたら、後からそれを調
整することはできる。」
GANの学習ノウハウ
GANの学習には多くのノウハウがある
http://yusuke-ujitoko.hatenablog.com/entry/2017/05/28/220351
1. 情報欠如をなくすためにDiscriminatorではMaxPoolingでなくstride=2のConvolutionに、Generatorでは
Transposed Convolutionによってアップサンプリングする。
2. Discriminatorの全結合層をなくし、Global Average Poolingに置き換える。パラメータ数が少なくて済み、認識率
も良くなる。また、全結合はDropoutで過学習を防ぐ必要があるが、GAPはパラメータが少なくなり過学習も起こり
にくい(ただし収束は遅い)。
3. Batch Normalizationで各層のデータ分布を正規化する。学習を早くしたりパラメータの初期化を気にしなくても良
くなる。過学習を防ぐ効果もあり。DiscriminatorとGeneratorの両方でBatch Normalizationを使用する。全層に適
用すると不安定になるので、Generatorの出力層とDiscriminatorの入力層には適用しない。
4. Discriminatorの活性化関数はLeaky ReLUを使う。xが負の領域の傾きが0でなく、有限の値になることで誤差逆
伝搬がストップすることなく、学習が進む。PReLUを使うと過学習が起こるリスクがある。
GANの学習ノウハウ
5. Generatorの最後の層でTanhにかけて入力画像を[-1, 1]に正規化する。
6. GANの元論文ではGeneratorの損失関数はmin(log(1-D(G(z)))のようになっている
が、実際は max(log(D(G(z)))を使う。前者は初期段階で勾配が消失する。
7. ノイズzを一様分布でなくガウシアンにする。
また、補間をするときには直線ではなくgreat circleに沿って補間を行う。
8. 学習時のミニバッチは、①全て訓練データx、または②全て生成データG(z)にする。
9. ADAM最適化を使う。DiscriminatorにはSGDを使い、GeneratorにはADAMを使う。
などなど。
例:DCGANでMNISTを生成してみた
PyTorchのサンプルを使用
https://github.com/znxlwm/pytorch-MNIST-CelebA-GAN-DCGAN
GoogleColaboratoryにて学習・評価をおこない、ものの数十分の学習で本物同様の文字画像を生成できた
https://colab.research.google.com/
Gの生成結果(左から epoch=1,10,25)
テキストから画像を生成するGAN
GAN-INT-CLS: Generative Adversarial Text to Image Synthesis, ICML 2016 (link)
  GANをテキストからの画像生成に初めて利用。 64x64の画像生成に成功。
GAWWN: Learning What and Where to Draw, NIPS 2016 (link)
  どの位置にどの物体があるかを BoundingBoxで指定することができた。
StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks, ICCV 2017 (link), C. Ledig, et.al.
  2ステージ訓練により 256x256の圧倒的な高解像度を生成。もやもや画像が 2ステージ目でくっきり。
TAC-GAN: Text Conditioned Auxiliary Classifier Generative Adversarial Network, arXiv 2017 (link)
  訓練アシストのための auxiliary classifierを使用。同じテキストから多様なタイプの画像が生成できる。
StackGAN++: Realistic Image Synthesis with Stacked Generative Adversarial Networks, arXiv 2017 (link), H. Zhang, et.al.
  StackGAN-v2と呼ばれ、tree-likeネットワークを使用
AttnGAN: Fine-Grained Text to Image Generation with Attentional Generative Adversarial Networks, CVPR 2018 (link) Tao Xu, et.al.
  Attentionドリブンな方法で細部を生成できるように
AttnGAN以降はend-to-end学習系の論文が出ている。
FusedGAN: Semi-supervised FusedGAN for Conditional Image Generation, arXiv 2018 (link)
  2ステージ訓練を End-to-Endで学習できるよう1 stageにfuseした。
HDGAN: Photographic Text-to-Image Synthesis with a Hierarchically-nested Adversarial Network, arXiv 2018 (link)
  hierarchical-nestedネットワーク構造で、高解像度画像を end-to-endで学習した。
LAPGAN(Laplacian Pyramid of Generative Adversarial Network)
Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks, NIPS(2015)
低解像度と高解像度の画像の差を学習し、低解像度画像をもとに高解像度の画像を生成する。各解像度のGeneratorを
学習し、段階的に高解像度の画像を生成。
AlignDRAW(Align Deep Recurrent Attention Writer)
Generating Images from Captions with Attention, ICLR(2016)
VAE(Variational Auto Encoder)はエンコーダの出力が正規分布の平均と共分散行列であり、潜在変数からのデータを再
構成する確率的変分推論アルゴリズムによって訓練する。そのVAEを拡張し、Attention機構を再帰的に組み込んだ
Deep Recurrent Attention Writer(DRAW)を追加したのがAlignDRAWである。AlignDRAWによりテキスト内の各単語
ごとに画像パッチを生成し、反復的に画像を生成した。
しかしこれらのモデルが生成する画像は、単語レベルの情報を欠いてしまっている。
高解像度画像生成の従来手法
AttnGANの生成結果
● 1行目は左から、AttnGANのGenerator (G0, G1, G2) による生成画像。低
解像度から徐々に高解像度の画像を与える。
● 2・3行目は、AttnGANのAttention (Fattn1, Fattn2) の上位5番目に登場
する単語が示すサブ領域を示している。
● 1列目のG0の結果は、global sentence vector のみから生成されるため、
鳥のくちばしや目などの詳細情報に欠ける。
● 2列目のG1, G2の結果は、G0の生成画像をもとに、より高解像度な画像を
生成する。Attentionメカニズムによって、各サブ領域がテキスト内の最も関
連する単語に対応づけられ、前の画像をもとに高解像度画像を生成する。
解像度はG1 (128x128)、G2 (256x256)。
● 3行目の結果では、2行目で省略された単語にAttentionで新た注目し、より
高解像度の画像を生成する結果が観測されている。
AttnGANの登場
簡単にAttnGANを試せるWebSiteがあった
https://t2i.cvalenzuelab.com/
確かに猫のようなものが描かれている。
AttnGANの登場
簡単にAttnGANを試せるWebSiteがあった
https://t2i.cvalenzuelab.com/
人と言われれば見えなくもない...
AttnGANの登場
簡単にAttnGANを試せるWebSiteがあった
https://t2i.cvalenzuelab.com/
あり得ない文章でもそれらしい結果が出る
モデル概要
入力テキストをエンコードして共通意味
空間にマッピング。このときグローバル
文ベクトルと共に各単語の特徴ベクトル
配列も抽出
各単語・各サブ領域レベルのマッチング
を測定して損失に組込む
Attentionにより画像特徴の注目する部
分のみ段階的に高解像度化。
各解像度ごとの教師データを使用してG
とDを交互に学習
CNNの中間の特徴マップからサブ領域
の画像特徴ベクトルを抽出
モデル概要
双方向LSTMを用いてテキストをエンコード。中間の
隠れ層hを単語特徴ベクトル配列e、最後の隠れ層
を結合してグローバル文ベクトルe(bar)とする。
双方向LSTM
e(bar)はFca (NN)によりConditioningベクトル cに変換さ
れる。テキスト空間が高次元すぎるので、学習する多様体を
滑らかにし、潜在変数をガウス分布からランダムサンプルし
てデータを増やし、過学習を避ける目的(Conditioning
Augumentation)。
モデル概要
F0 (NN)はノイズzとConditioningベクトルcを入力とし
て、隠れ状態h0を出力。h0はグローバル画像特徴を表
し、第1段階の生成器G0の入力となって、64x64の粗い
画像を生成する。
Fattn1(NN)は、単語ベクトル配列eと画像特徴を共通の意味
空間にマップし(e’)、グローバル画像ベクトルh0を入力として
各単語のコンテキストベクトルが画像の各サブ領域に関与す
る重み(=Attention)を出力。
モデル概要
F1(NN)はグローバル画像特徴h0とFattn1を入力として、各サブ領域
ごとの画像特徴を表す隠れ状態h1を生成。h1は第2段階での生成器
G1の種となり、より高解像度の画像を生成。
Fattn2(NN)は、単語ベクトル配列eとサブ領域ごとの画
像特徴配列h1を入力として、各単語のコンテキストベク
トルが画像の各サブ領域に関与する重み(=Attention)を
出力。
モデル概要
Image Encoderは、画像を意味ベクトルにマッピングす
る。CNN(Inception-v3)の中間層からサブ領域の画像
特徴、最後の層からグローバルな画像特徴を抽出。これ
をさらに単語特徴と合わせるためにW(パーセプトロン)で
変換する。
DAMSMは、各単語と各サブ領域を共通の意味空間にマッ
ピングして単語レベルのテキスト・画像のマッチングを測定
し、生成器Gのより細かい損失を計算。
モデルの大まかな理解
テキスト
Text
Encoder
グローバル文ベクトル
単語ベクトル配列
生成画像(高解像度)
サブ領域画像特徴
グローバル画像特徴
G’
NN
Attention
NN
G
生成画像(低解像度)
モデルの大まかな理解
テキスト
Text
Encoder
グローバル文ベクトル
単語ベクトル配列
生成画像(高解像度)
G
サブ領域画像特徴
グローバル画像特徴
G’
NN
Attention
NN
生成画像(低解像度)
正解画像
D0
D1
Image
Encoder
DAMSM
loss
部分画像特徴
Attention
(Matching)
loss of
GAN
Train NNs with the following loss
DAMSM損失関数
テキストと画像を共通の意味空間にマッピングした後、画像内のサブ領域と対応する単語の全ての対について類似行列
を計算。テキストの単語ベクトル配列eと、サブ領域の特徴ベクトルvの内積で類似度を測定する。
s_i,jはi番目の単語と、j番目のサブ領域の内積類似度を表す。これを単語数Tで規格化する。
領域コンテキストベクトルciを以下で定義。γ1は単語がどのサブ領域に注目するかの重みを表している。
DAMSM損失関数
画像全体Qとテキスト全体DのAttentionドリブンな画像-テキストマッチングスコアR(Q,D) を以下で定義。
R(ci, ei)は領域コンテキストciとサブ領域に対応する単語のコンテキストeiのコサイン類似度。
文章Diと画像Qiがマッチングする事後確率を以下で定義。γ3はsmooth factor。
DAMSM損失関数
DAMSM損失を用いる学習は、画像全体と文全体とのマッチングのみを教師とする半教師あり学習。
この文章バッチはi番目の文Diのみが画像Qiと一致、他の全ての文を不一致として扱う。
損失関数は、画像と対応するテキスト記述の正解とマッチングする、負の対数事後確率として定義。
同様に(13)式も最小化する。wは単語、sは文章を表す。
wはwordの意味。グローバル文ベクトルe(bar)と画像ベクトルv(bar)においても同様の計算を行い、
最終的なDAMSMロスを以下で計算する。
DAMSM損失関数
AttnGANの最終的な損失関数は以下で表される
第1項のL_GはGAN損失で、以下のような無条件損失と条件つき損失の和で表される。
無条件損失は「画像が真か偽か」を決定し、条件つき損失は「画像がテキストと一致するか」を決定する。
生成画像の評価
最後に領域コンテキストベクトルciと単語の特徴ベクトル配列eiの間のコサイン類似度を用いて、i番目の画像と画像のサ
ブ領域との関連性を定義する。
全画像Qと全テキストDとの間のAttentionドリブンなマッチングスコアは、音声認識における最小分類誤差公式を参考に
して、以下のように定義している。(音声と文章がどれだけマッチングしているか)γ2は単語とサブ領域のペアの重要度を
示している。
AttnGANのまとめ
1. テキストから画像を合成するためのGANに、Attentionメカニズムを新たに導入し
た。
2. DAMSMによりテキストと画像のマッチングの詳細な評価方法を提案した。
3. AttnGANが生成するAttention層を視覚化し、
GANが関連する単語を元に画像の部分領域を段階的に生成する様子が見られ
た。

More Related Content

What's hot

強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)Shota Imai
 
機械学習で嘘をつく話
機械学習で嘘をつく話機械学習で嘘をつく話
機械学習で嘘をつく話Satoshi Hara
 
FastAPIを使って 機械学習モデルをapi化してみた
FastAPIを使って 機械学習モデルをapi化してみたFastAPIを使って 機械学習モデルをapi化してみた
FastAPIを使って 機械学習モデルをapi化してみたSho Tanaka
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
 
Data-Centric AI開発における データ生成の取り組み
Data-Centric AI開発における データ生成の取り組みData-Centric AI開発における データ生成の取り組み
Data-Centric AI開発における データ生成の取り組みTakeshi Suzuki
 
Deep Learningを用いたロボット制御
Deep Learningを用いたロボット制御Deep Learningを用いたロボット制御
Deep Learningを用いたロボット制御Ryosuke Okuta
 
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...Deep Learning JP
 
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向Koichiro Mori
 
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
【DL輪読会】Generative models for molecular discovery: Recent advances and challengesDeep Learning JP
 
Devsumi 2018summer
Devsumi 2018summerDevsumi 2018summer
Devsumi 2018summerHarada Kei
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
エンジニアも知っておきたいAI倫理のはなし
エンジニアも知っておきたいAI倫理のはなしエンジニアも知っておきたいAI倫理のはなし
エンジニアも知っておきたいAI倫理のはなしYasunori Nihei
 
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまでharmonylab
 
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...Deep Learning JP
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII
 
GANの概要とDCGANのアーキテクチャ/アルゴリズム
GANの概要とDCGANのアーキテクチャ/アルゴリズムGANの概要とDCGANのアーキテクチャ/アルゴリズム
GANの概要とDCGANのアーキテクチャ/アルゴリズムHirosaji
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用Ryo Iwaki
 
非ガウス性を利用した 因果構造探索
非ガウス性を利用した因果構造探索非ガウス性を利用した因果構造探索
非ガウス性を利用した 因果構造探索Shiga University, RIKEN
 

What's hot (20)

強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
 
機械学習で嘘をつく話
機械学習で嘘をつく話機械学習で嘘をつく話
機械学習で嘘をつく話
 
FastAPIを使って 機械学習モデルをapi化してみた
FastAPIを使って 機械学習モデルをapi化してみたFastAPIを使って 機械学習モデルをapi化してみた
FastAPIを使って 機械学習モデルをapi化してみた
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
Data-Centric AI開発における データ生成の取り組み
Data-Centric AI開発における データ生成の取り組みData-Centric AI開発における データ生成の取り組み
Data-Centric AI開発における データ生成の取り組み
 
Deep Learningを用いたロボット制御
Deep Learningを用いたロボット制御Deep Learningを用いたロボット制御
Deep Learningを用いたロボット制御
 
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...
[DL輪読会]Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-...
 
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
 
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
【DL輪読会】Generative models for molecular discovery: Recent advances and challenges
 
Devsumi 2018summer
Devsumi 2018summerDevsumi 2018summer
Devsumi 2018summer
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
エンジニアも知っておきたいAI倫理のはなし
エンジニアも知っておきたいAI倫理のはなしエンジニアも知っておきたいAI倫理のはなし
エンジニアも知っておきたいAI倫理のはなし
 
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまで
 
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
GANの概要とDCGANのアーキテクチャ/アルゴリズム
GANの概要とDCGANのアーキテクチャ/アルゴリズムGANの概要とDCGANのアーキテクチャ/アルゴリズム
GANの概要とDCGANのアーキテクチャ/アルゴリズム
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
 
Ml system in_python
Ml system in_pythonMl system in_python
Ml system in_python
 
Data-Centric AIの紹介
Data-Centric AIの紹介Data-Centric AIの紹介
Data-Centric AIの紹介
 
非ガウス性を利用した 因果構造探索
非ガウス性を利用した因果構造探索非ガウス性を利用した因果構造探索
非ガウス性を利用した 因果構造探索
 

Similar to AttnGAN

McEdu2016 ゲームとプログラミング学習のカタチ 鷲崎
McEdu2016 ゲームとプログラミング学習のカタチ 鷲崎McEdu2016 ゲームとプログラミング学習のカタチ 鷲崎
McEdu2016 ゲームとプログラミング学習のカタチ 鷲崎Hironori Washizaki
 
汎用AIプログラミングシステムGenを使ってみた
汎用AIプログラミングシステムGenを使ってみた汎用AIプログラミングシステムGenを使ってみた
汎用AIプログラミングシステムGenを使ってみたJunKaneko3
 
Machine Learning 15minutes 発表資料(株)ウェブファーマー
Machine Learning 15minutes 発表資料(株)ウェブファーマーMachine Learning 15minutes 発表資料(株)ウェブファーマー
Machine Learning 15minutes 発表資料(株)ウェブファーマーWEBFARMER. ltd.
 
Askul internal study-session
Askul internal study-sessionAskul internal study-session
Askul internal study-sessionShimpeiIwamaru
 
Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会
Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会
Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会Yuya Unno
 
中小企業による人工知能の活用~既存事業のアップグレードとイノベーション~
中小企業による人工知能の活用~既存事業のアップグレードとイノベーション~中小企業による人工知能の活用~既存事業のアップグレードとイノベーション~
中小企業による人工知能の活用~既存事業のアップグレードとイノベーション~Kentaro Imai
 
機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステム
機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステム機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステム
機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステムJunichi Noda
 
機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステム ver 1.1
機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステムver 1.1機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステムver 1.1
機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステム ver 1.1Junichi Noda
 
2023-03-22_Spiral.AI_FindyLT会
2023-03-22_Spiral.AI_FindyLT会2023-03-22_Spiral.AI_FindyLT会
2023-03-22_Spiral.AI_FindyLT会SasakiYuichi1
 
2023-03-23_Spiral.AI
2023-03-23_Spiral.AI2023-03-23_Spiral.AI
2023-03-23_Spiral.AISasakiYuichi1
 
Data Science Workshop 「クリエイティブAI」で新たな価値を創造する
Data Science Workshop  「クリエイティブAI」で新たな価値を創造するData Science Workshop  「クリエイティブAI」で新たな価値を創造する
Data Science Workshop 「クリエイティブAI」で新たな価値を創造するMasaya Mori
 
実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2Kuniyuki Takahashi
 
SimGAN 輪講資料
SimGAN 輪講資料SimGAN 輪講資料
SimGAN 輪講資料Genki Mori
 
ソーシャルビッグデータ・オープンデータによる社会構造変化の発見
ソーシャルビッグデータ・オープンデータによる社会構造変化の発見ソーシャルビッグデータ・オープンデータによる社会構造変化の発見
ソーシャルビッグデータ・オープンデータによる社会構造変化の発見Masanori Takano
 
秋葉原IT戦略研究所のご紹介
秋葉原IT戦略研究所のご紹介秋葉原IT戦略研究所のご紹介
秋葉原IT戦略研究所のご紹介Junichi Noda
 

Similar to AttnGAN (20)

McEdu2016 ゲームとプログラミング学習のカタチ 鷲崎
McEdu2016 ゲームとプログラミング学習のカタチ 鷲崎McEdu2016 ゲームとプログラミング学習のカタチ 鷲崎
McEdu2016 ゲームとプログラミング学習のカタチ 鷲崎
 
汎用AIプログラミングシステムGenを使ってみた
汎用AIプログラミングシステムGenを使ってみた汎用AIプログラミングシステムGenを使ってみた
汎用AIプログラミングシステムGenを使ってみた
 
Machine Learning 15minutes 発表資料(株)ウェブファーマー
Machine Learning 15minutes 発表資料(株)ウェブファーマーMachine Learning 15minutes 発表資料(株)ウェブファーマー
Machine Learning 15minutes 発表資料(株)ウェブファーマー
 
Askul internal study-session
Askul internal study-sessionAskul internal study-session
Askul internal study-session
 
Ocha 20191204
Ocha 20191204Ocha 20191204
Ocha 20191204
 
Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会
Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会
Twitter分析のためのリアルタイム分析基盤@第4回Twitter研究会
 
中小企業による人工知能の活用~既存事業のアップグレードとイノベーション~
中小企業による人工知能の活用~既存事業のアップグレードとイノベーション~中小企業による人工知能の活用~既存事業のアップグレードとイノベーション~
中小企業による人工知能の活用~既存事業のアップグレードとイノベーション~
 
2016 sep13 gdlc01 pfn
2016 sep13 gdlc01 pfn2016 sep13 gdlc01 pfn
2016 sep13 gdlc01 pfn
 
機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステム
機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステム機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステム
機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステム
 
機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステム ver 1.1
機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステムver 1.1機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステムver 1.1
機械学習ライブラリ「Spark MLlib」で作る アニメレコメンドシステム ver 1.1
 
2023-03-23_SpiralAI
2023-03-23_SpiralAI2023-03-23_SpiralAI
2023-03-23_SpiralAI
 
2023-03-22_Spiral.AI_FindyLT会
2023-03-22_Spiral.AI_FindyLT会2023-03-22_Spiral.AI_FindyLT会
2023-03-22_Spiral.AI_FindyLT会
 
2023-03-23_Spiral.AI
2023-03-23_Spiral.AI2023-03-23_Spiral.AI
2023-03-23_Spiral.AI
 
Data Science Workshop 「クリエイティブAI」で新たな価値を創造する
Data Science Workshop  「クリエイティブAI」で新たな価値を創造するData Science Workshop  「クリエイティブAI」で新たな価値を創造する
Data Science Workshop 「クリエイティブAI」で新たな価値を創造する
 
実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2
 
SimGAN 輪講資料
SimGAN 輪講資料SimGAN 輪講資料
SimGAN 輪講資料
 
ソーシャルビッグデータ・オープンデータによる社会構造変化の発見
ソーシャルビッグデータ・オープンデータによる社会構造変化の発見ソーシャルビッグデータ・オープンデータによる社会構造変化の発見
ソーシャルビッグデータ・オープンデータによる社会構造変化の発見
 
秋葉原IT戦略研究所のご紹介
秋葉原IT戦略研究所のご紹介秋葉原IT戦略研究所のご紹介
秋葉原IT戦略研究所のご紹介
 
20181120 ldp ai
20181120 ldp ai20181120 ldp ai
20181120 ldp ai
 
S09 t4 wrapup
S09 t4 wrapupS09 t4 wrapup
S09 t4 wrapup
 

AttnGAN