8. ICML2019 Best Paper
Challenging Common Assumptions in the Unsupervised
Learning of Disentangled Representations
https://arxiv.org/abs/1811.12359
Francesco Locatello, Stefan Bauer, Mario Lucic, Gunnar Rätsch,
Sylvain Gelly, Bernhard Schölkopf, Olivier Bachem
ETH Zurich, Max-Planck, Google Brain
14. High-Fidelity Image Generation
With Fewer Labels
ConditionalGANをsemi-supervisedやself-supervisedにしたという研究
識別器による疑似ラベルをConditionに用いたり(左図)、
回転加工した画像の角度を推定する識別器を加えたりしている(右図)
15. Flat Metric Minimization
with Applications in Generative Modeling
データを確率分布ではなくカレントで表現する手法を提案
部分接線によってdisentangle的な特徴量表現を得た
16. Entropic GANs meet VAEs: A Statistical Approach
to Compute Sample Likelihoods in GANs
データ分布を好き勝手に仮定せずにちょっと気を使おうぜという手法
最尤推定のように機能するLOSSをGANに追加
GAN 提案
18. A Kernel Theory of Modern Data
Augmentation
機械学習では欠かせなくなってきた『data augmentation』について、
なぜ効果があるのか理論面から検証する。
・Data Augmentation induce invariance by feature averaging
・Data augmentation regularizes by reducing variance
(当然に聞こえるけど、これらを論理立てて証明した点が貢献点)
こういう研究が出てくると『ICMLだぁ~』って感じがしますね
20. Rate Distortion For Model Compression:
From Theory To Practice
モデル圧縮技術が様々あるけど、どのくらいまで圧縮しても平気なの?と
いった疑問を理論側から解こうとした研究
2つの重要な法則(Golden Rules)を発見して、それに従った場合は圧
縮時のパフォーマンスが良いことも確認した
21. A Personalized Affective Memory Model
for Improving Emotion Recognition
Emotion Recognitionというタイトルにつられて見学したが発表者が見あ
たらず。パッと見からすると個人バイアスを分離抽出する手法?
(yを加えることでReconstructionしてるっぽいし)
(zとp(z)を比較してるし)
帰国したら真面目に読もう…