ICML2019 Best Paper
ChallengingCommon Assumptions in the Unsupervised
Learning of Disentangled Representations
https://arxiv.org/abs/1811.12359
Francesco Locatello, Stefan Bauer, Mario Lucic, Gunnar Rätsch,
Sylvain Gelly, Bernhard Schölkopf, Olivier Bachem
ETH Zurich, Max-Planck, Google Brain
A Kernel Theoryof Modern Data
Augmentation
機械学習では欠かせなくなってきた『data augmentation』について、
なぜ効果があるのか理論面から検証する。
・Data Augmentation induce invariance by feature averaging
・Data augmentation regularizes by reducing variance
(当然に聞こえるけど、これらを論理立てて証明した点が貢献点)
こういう研究が出てくると『ICMLだぁ~』って感じがしますね
Rate Distortion ForModel Compression:
From Theory To Practice
モデル圧縮技術が様々あるけど、どのくらいまで圧縮しても平気なの?と
いった疑問を理論側から解こうとした研究
2つの重要な法則(Golden Rules)を発見して、それに従った場合は圧
縮時のパフォーマンスが良いことも確認した
21.
A Personalized AffectiveMemory Model
for Improving Emotion Recognition
Emotion Recognitionというタイトルにつられて見学したが発表者が見あ
たらず。パッと見からすると個人バイアスを分離抽出する手法?
(yを加えることでReconstructionしてるっぽいし)
(zとp(z)を比較してるし)
帰国したら真面目に読もう…