!"#$%&'()*+%,"+-.'!/&,/0,'!1)2,-.'!"$03 45'4+%&0/$67.'
!"#$%&,'8+/9$"0)-.':%+/;$<; 4,%$/,=>,1)$%-
1/ / . 1/ . 1 .
?@ABCDEFGHIJKLMN
!"#$%&'$()*+")&'(%$,&--./&0&12
3&,$&-+")$%&'$()+41(%+&+5$)6-2+7%&62
899:+;<=>+?2@'+A&A21+&0&1B@+C()(1&D-2+E2)'$()
-O/<&0&)&'2$'P,#,&0;+ 0 O/9,%*+&0;+'O/2)<&%0+".'7QR$'SR0,'8&+&$'T/0U$%<0&V'
!"
!"#$
%&'()*+&,-./012345675328145932345:;<=>
%&'(?@A8&BC22D523456ECFG8HI
%1J1KDLM(N0OPQ/RST;UV
WX%YZ[]^_`aZ
%bc(def-ghT&'8icjkl8HImn
op
qrkl(st(ghT&'(jkl8HI
研究背景
既存研究
・最新のConditional GAN(e.g. StarGAN)では
ターゲットconditionに対して高品質な画像を生成可能
・しかし多くの既存手法ではconditionとして
離散的なラベルを扱っているため(e.g. happy, sad)
- 必要とするラベルごとにモデルを学習し直す必要がある
- 離散的なラベルでは生成画像のバリエーションに限界がある
提案手法のメインアイディア
離散的なラベルの代わりに連続量をconditionとして扱う
!"#$ %&'()*+(,-./00123456
!"#$%&'()*+,-./0123456
789$%&'()*+,-./:;<=>/?3
@89!"#$%&'.AB;<=>/?-CDE
$%&'*FG2H=IJKLKMNOPM#Q>FR
!"#$ %&'()*+,-./0123+,&456789:;
!"#$%&'()*+,#-./.01230456789
:;<!"#$%&'()*+,#-./.012304=6>?@AB
C;<$%&'DEF@GHIJKL
()MKN$%&'O?PQRMSTUV@WX
!"#$ %&
!"#$%&'()'*+)
,-./012%3456789:;<=>?@?<=ABCDE
'()*+,-.,*)/'.0:FG
H;@?<=IJ=?@AKL
MN%OPQ./RS:TA6UVWXYN%Z[%]^
MZ[_A6HJ`aHJbcAdEefAghijkjl`kjm:Tn
MZHJ%opq4r6stCuv/wx:wyz{
|mIZHJ6s}wx~ighKÄC`kjaÅÇÉ%ÑÖÜás5m
~WrYHJ
àâäãå
ç
!"#$ %&'()*
!"#$%&'#()*+,-./0.12/345
67889:;<=>?7@AB;CDEFGHIJK3LM
NOPQR
6@89:;<=>345
6STUV/WXYU0/0YZ[]^@87_`;ab35c+dGH;ef3
ghi#jk%
6<lmn35c+<op3qrst%&*u=>Qvw
!"#$ %&
!"#$%&'()*+,-./01234
5"#$)*+,-./678!"&'9:;<=>%&'
?@A #$!"%&'
?@B # CD&'
?@A #$EFGHIJ!"%&'
K
@B#$)*+,-./
@A#$$!"%&'>./
K
@B#$LMHIJ)*+,-./
!"#$ %&
!"# $%%&'%()'*+$,-./)0)1*+$,-234
!5#*67)%)1&$0(,%(/*)1*')%289
!:#*;<2=9
!>#*?@AB2CD4
$%%&'%()'*+$,-
/)0)1*+$,-
!"#$ %&'()**+,*-.,(/)012(3.4.5(/)01678
!"#$%&'(&)*+,-./01234345*675 89:8;-<=
> ?@AB&9CDEFGHI9C&
JABKLM1NOP-Q0*66346R74#)*+,#9
> EFGHI9C-STUVWXYABZ7[75#)*#]
'"#9:]#^#_#!#> 9#`:_?@AB`-ab01cDdAB-./
Z7[75#)*+, ]
*66346R74#)*+, 9
!"#$ %&'()**+,*-.,(/)012(3.4.5(/)01678
!"#$%&'(&)*+,-./01234345*675 89:8;-<=
> ?@AB&9CDEFGHI9C&
JABKLM1NOP-Q0*66346R74#)*+,#9
> EFGHI9C-STUVWXYABZ7[75#)*#]
'"#9:]#^#_#!#> 9#`:_?@AB`-ab01cDdAB-./
9
]
89
8;
!"#$ %&'()*+,+-./012,13(+-(4+,567
!""#$"%&$'(!)* +
,&-&.'(!)* /
01%),.%(%$!"&.'23456789:;<=>?
@A&"&.#!-%)"%,'BCBDEFGH
023IJKLMNOPQRST4UGHEFDVW
X!",AY+ZD[
!"#$ %&' ()*+,
!""#$"%&$'(!)*'+
,&-&.'(!)*'/
0123456789:;<
=>?@ABC5D23+E FGHIJK
0LM9NOPQ<RSRTU 789:;<
VW?@F+E 8XFGHYZ[9JK
8X
!"#$ %&'()*+,-./
!"#"$%&'()%*
+!,!#-./0123456789:;<=>
?@ABCDEFAB0G.@HI
'JJ-KJL"K%&'()%M
!"#$ %&'(
!""#$"%&$'(!)*+,-./012
3456789':;-.<=>?+@A-.BCDEF
34G8H9'IJKLA86MNO<=P+Q.BCDEF
RSTU+,-./012
345V789'RSVWXTU+,-.
YZ[]^_`abc!d"e'f&g#d'h%)"!$i#
34G89'YZ[jZk]^_`abld!m%#$"'n#$!o"p
!"#$ %&'(
!"#$%&'()*+,-./0123
456789 :;<= >?7@A!"#$%&'()*+BCDEF01
GH?'()!",-./0123
4GH?'()!"I@A!"CJK01
!"#$ %&'()*+,-./01234/56!"#$%&'()*
!"#$%&'+,&'+-+./0(&'1234
567(89:
;<=(89:
!"#$ %&'()*+,-./01234/56
!"#$%&'()*+,-./0012034256/785'9:4;4<56/785=
>?@ABCD
EFGABCD
CDHIJKLGM/00120342NOPHIJK
!"#$ %&'()*+,-./01-.23456
!"#$%&'()*+,-./01234/056789:;
<='>?@AB*+,-./01CD9EFG'@AHIJ
*+,-./04KLMN>?
!"#$ %&'()*+,-./01234567
!"#$%&'()*+,-.*/0123-.45678
9:;<=>?6@A6BCDEFG$HI*JK
LMNO
!"#$ %&'()*+,-./012341567
!"#$%&'()*+,-./01+2
34567&'(89:;<9=>9?+,@A
BCDE
FGHIJ(KL,MNO(PQRS
!"#$ %&'()*+,-*.(/01234567#$
!"#$%&'()*+,-./01234
5634
789:;<9=7>?@!"(ABCDEFG
!"#$ %&'()*+,-./01
!"#$%&'( !"#)%&*+
,"#$%&-./0123 ,"#)%4561789:;
<"#$%&4561=>?@ <"#)%&ABCDEFGH9I
JK13+LMNOPQRSTUCOF+LTVWXY
Z [Z [
!"#$ %&'()*
!"#$%&'()*+,-./01 !"#2% 34.56
7"#$%&89#+:;<=>? 7"#2% @A+B)*
C DC D
!"#
!"#$
%&'()*+&,-./012345675328145932345:;<=>
%&'(?@A8&BC22D523456ECFG8HI
%1J1KDLM(N0OPQ/RST;UV
WX%YZ[]^_`aZ
%bc(def-ghT&'8icjkl8HImn
%op#$QqirstTkl8HI
%uvwxy?@Pz{
メモ
・メインアイディアは連続量のconditionに対する
画像生成のため、顔画像以外にも適用可能
・photo realisticと謳っているが、解像度に関する記載がない
・幾つのAUでトレーニングを行っているかが明記されていない
EmotioNetには12種類あるようなのでおそらく12種類?
(しかし、実験結果(4)は14種類のAUで学習と書かれている)
・リンク
- 論文:
http://content_ECCV_2018/papers/Albert_Pumarola_
Anatomically_Coherent_Facial_ECCV_2018_paper.pdf
- project page:
https://www.albertpumarola.com/research/GANimation/
- GitHub:
https://github.com/albertpumarola/GANimation

【ECCV 2018】GANimation: Anatomically-aware Facial Animation from a Single Image