DEEP LEARNING JP
[DL Papers] Representation Learning via Invariant Causal Mechanisms
XIN ZHANG, Matsuo Lab
http://deeplearning.jp/
書誌情報
● Representation Learning via Invariant Causal Mechanisms
● 著者:Jovana Mitrovic, Brian McWilliams, Jacob Walker, Lars Buesing, Charles Blundell
● 研究機関:DeepMind, Oct 2020(Arxiv)
● 概要
○ Contrastive Learning(CL)が上手くいっている理由を因果論で解釈する論文
○ データ拡張に注目して、画像のStyleがdowntasksに影響しないため(仮説のもとで)、
事前学習のTaskにおいても影響しないようにすれば良い
○ CLのLoss関数に、Styleによる影響を抑える制限を加える
○ 学習した表現の良さは、Baselineと同等だが、ロバスト性や汎化性が優れている
2
Introduction:Representation Learning
Representation Learning via Invariant Causal Mechanisms
BYOL
Representation Learning via Invariant Causal Mechanisms
Target Network
Reprensentation(Self-supervised) learningはMIだけでは解釈でき
ない
[DL輪読会]相互情報量最大化による表現学習、岩澤先生より
Representation Learning via Invariant Causal Mechanisms
Alignment and Uniformity on the Hypersphere
Proposed method:RELIC
議論:仮説に異論はあるかもだが、(自分は)納得
できる
Representation Learning via Invariant Causal Mechanisms
Assumptions:
1. 画像(X)はコンテンツ(C)とスタイル(S)から生
成される
2. Cのみが下流タスク(Y_1...)に影響する
3. CとSはお互いに独立
理論上:Instance Classificationは最も難しいタス
クであり、これさえできれば、下流のどんなタス
クに対しても解けるはず。(証明付き)
自分の理解:個々の分類よりも細かい分類がない
Representation Learning via Invariant Causal Mechanisms
事前学習のタスク(Y^R)で表現f(X)を学習する。
Y^RはInstance Classification(入力画像と他の画像
と区別する)。
Representation Learning via Invariant Causal Mechanisms
Y^Rでf(X)で事前学習する際に、Sの変化による影
響を無くすように制限をかける。
Relationship between RELIC and other methods.
EXPERIMENTS
Linear evalution:線形分類のしやすさで表現の良さを評価
Fischer’s linear discriminant ratio(Friedman et al., 2009)
大きければ大きいほど、線形分離しやすい。
SimCLRより良いことがわかる。
Linear evalution:ImageNetで線形評価を行う(スタンダード)
2種類のArchitectureで、それぞれSOTAと同等程度な精度
- ただし、InfoMin AugとSwAVはより強力データ拡張を使
った。(5%ほど精度上げられるもの)
議論:より強力データ拡張を使った結果は気になる
ImageNet-R:ImageNetの画像を拡張したデータセット。
Top-1 Error%がSimCLRより低く、Supervisedより高い。
Robustness and Generalization
Robustness and Generalization
ImageNet-C:ImageNetの画像に異なる程度な異なるノイズを
加えたデータセット。
複数のError率では、SimCLRとBYOLより低い(良い)。
Reinforcement Learning
R2D2の入力画像に対する拡張で精度を比較。
(R2D2:RNN+DQN+Tricksで大幅当時のSOTAを超えた。)
感想:RLは普段しない実験で新鮮。CURLよりも良かった。
Conclusion
Related Work
A causal view of compositional zero-shot
recognition(NIPS 2020)
Self-Supervised Learning with Data
Augmentations Provably Isolates Content
from Style(Jun 2021)
ContentがStyleに影響する!を仮定する
まとめ:
- Self-supervised learning(Contrastive Learning)を因果の枠組みで解釈してみた研究。
- 特徴は、RELIC Lossが必要であることをを因果論?の数式で証明した(Appendixを参考)。
感想:
- Contrastive Learningの新しい手法がどんどん提案されているに対して、その理論解析の研究が少な
い(追いついていない)。
- 実装公開してほしい。

[DL輪読会]representation learning via invariant causal mechanisms