背景
特徴量(画像の場合はSaliency map)による説明 サンプルによる説明
自然言語による説明簡易モデルによる説明
“WT5?! Training Text-to-Text Models to Explain their Predictions”
“Representer Point Selection for Explaining Deep Neural Networks” (NeurIPS'18)
Interpreting CNNs via Decision Trees (CVPR’19)
“RISE: Randomized Input Sampling for
Explanation of Black-box Models” (BMVC’18)
“SmoothGrad: removing noise
by adding noise” (arXiv’17/06)
実験2.単一レイヤのみ vs. 複数レイヤ
Grad-CAMが最終層以外で機能しない理由として
GlobalAverage Poolingの存在を指摘
A: All, D:Difficult
ReLU
𝐾′
𝑔 𝑜𝑢𝑡
𝑥 𝑜𝑢𝑡
• Global Average Pooling
• チャンネル方向に和をとる
• ReLUの適用
𝑔 𝑢
𝑜𝑢𝑡
⊙ 𝑥 𝑢
𝑖𝑛
Scaling層における勾配
Saliency mapの計算法
IDL
Pointing Gameの結果(ResNet on VOC07)
28.
実験2.単一レイヤのみ vs. 複数レイヤ
Saliencymethods
• LA : Linear Approx.
• sNG: selective NormGrad
複数レイヤのSaliency mapの統合方法
• 加算(+) or 積(×)
• 重みを以下の4パターンで比較
• Accuracy
• Spread
• Linear
• Uniform
Pointing Gameにおけるスコアの変化(単一レイヤ基準)
29.
実験3.メタ学習あり vs. なし
事前にSGDを1回実行したロスを用いる
MinClassMax ClassTrue Class
Max classとMin Classの間に
相関が生じてしまっている
上段:メタ学習なし,下段:メタ学習あり
Min classがランダムな情報に置き換わり
Max classとの相関がなくなった
メタ学習