SlideShare a Scribd company logo
Submit Search
Upload
Login
Signup
20170618論文読み会 伊藤
Report
Tomoki Itou
Follow
Jun. 18, 2017
•
0 likes
•
2,178 views
1
of
26
20170618論文読み会 伊藤
Jun. 18, 2017
•
0 likes
•
2,178 views
Download Now
Download to read offline
Report
Data & Analytics
20170618論文読み会 伊藤
Tomoki Itou
Follow
Recommended
BlackBox モデルの説明性・解釈性技術の実装
Deep Learning Lab(ディープラーニング・ラボ)
22.1K views
•
96 slides
グラフィカルモデル入門
Kawamoto_Kazuhiko
116.6K views
•
67 slides
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
Satoshi Hara
5K views
•
39 slides
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
6.9K views
•
62 slides
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
3.6K views
•
48 slides
機械学習モデルの判断根拠の説明
Satoshi Hara
96.7K views
•
110 slides
More Related Content
What's hot
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
12.4K views
•
177 slides
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
8.7K views
•
58 slides
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
265.5K views
•
159 slides
XAI (説明可能なAI) の必要性
西岡 賢一郎
977 views
•
20 slides
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
60.9K views
•
43 slides
SHAP値の考え方を理解する(木構造編)
Kazuyuki Wakasugi
12K views
•
12 slides
What's hot
(20)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
•
12.4K views
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
•
8.7K views
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
•
265.5K views
XAI (説明可能なAI) の必要性
西岡 賢一郎
•
977 views
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
•
60.9K views
SHAP値の考え方を理解する(木構造編)
Kazuyuki Wakasugi
•
12K views
機械学習モデルのハイパパラメータ最適化
gree_tech
•
27.7K views
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
•
15K views
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
•
72.1K views
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
•
25K views
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
Shota Imai
•
2.1K views
ベイズ統計学の概論的紹介
Naoki Hayashi
•
78K views
協力ゲーム理論でXAI (説明可能なAI) を目指すSHAP (Shapley Additive exPlanation)
西岡 賢一郎
•
780 views
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Teppei Kurita
•
2.1K views
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
•
1.7K views
変分ベイズ法の説明
Haruka Ozaki
•
41.1K views
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
•
12.4K views
アンサンブル木モデル解釈のためのモデル簡略化法
Satoshi Hara
•
6.3K views
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
•
28.8K views
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
Deep Learning JP
•
3.8K views
Similar to 20170618論文読み会 伊藤
Rで学ぶ観察データでの因果推定
Hiroki Matsui
51K views
•
36 slides
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
SusumuOTA
499 views
•
68 slides
Computational Motor Control: Reinforcement Learning (JAIST summer course)
hirokazutanaka
897 views
•
44 slides
Rainbow
Takahiro Yoshinaga
7.5K views
•
22 slides
NIPS KANSAI Reading Group #7: 逆強化学習の行動解析への応用
Eiji Uchibe
1.9K views
•
25 slides
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
tomitomi3 tomitomi3
825 views
•
53 slides
Similar to 20170618論文読み会 伊藤
(20)
Rで学ぶ観察データでの因果推定
Hiroki Matsui
•
51K views
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
SusumuOTA
•
499 views
Computational Motor Control: Reinforcement Learning (JAIST summer course)
hirokazutanaka
•
897 views
Rainbow
Takahiro Yoshinaga
•
7.5K views
NIPS KANSAI Reading Group #7: 逆強化学習の行動解析への応用
Eiji Uchibe
•
1.9K views
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
tomitomi3 tomitomi3
•
825 views
Rainbow: Combining Improvements in Deep Reinforcement Learning (AAAI2018 unde...
Toru Fujino
•
1.5K views
時系列解析の使い方 - TokyoWebMining #17
horihorio
•
11.6K views
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
•
2.7K views
心理学におけるベイズ統計の流行を整理する
Hiroshi Shimizu
•
10.4K views
Evolved policy gradients
Kenshi Abe
•
303 views
状態空間モデルの考え方・使い方 - TokyoR #38
horihorio
•
37.7K views
北大調和系 DLゼミ A3C
Tomoya Oda
•
326 views
強化学習勉強会・論文紹介(第30回)Ensemble Contextual Bandits for Personalized Recommendation
Naoki Nishimura
•
3.4K views
Decision Transformer: Reinforcement Learning via Sequence Modeling
Yasunori Ozaki
•
1.6K views
Neural Rejuvenation: Improving Deep Network Training by Enhancing Computation...
Yosuke Shinya
•
2.5K views
#神奈川大学経営学総論 A (10/15) 競争戦略
Yasushi Hara
•
2.5K views
外国語教育研究におけるRを用いた統計処理入門
Yusaku Kawaguchi
•
1.5K views
複合システムネットワーク論を読む(公開版)
考司 小杉
•
6.1K views
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
Masayoshi Kondo
•
1.4K views
20170618論文読み会 伊藤
1.
論文紹介 Learning Important Features Through
Propagating Activation Differences 東京大学工学系研究科 システム創成学専攻 和泉研究室 D1 伊藤友貴
2.
自己紹介 • 東京大学工学系研究科 和泉研究室所属 –
金融に関するデータマイニング – 人工市場によるシミュレーション • 普段はロイターニュースとかヤフーファイナン ス掲示板とか触って遊んでます • 今日紹介する論文、ちょいちょい正確に理解 できていないです…お手柔らかにお願い致し ます
3.
概要 • 紹介する論文 – Learning
Important Features Through Propagating Activation Differences (A. Shrikumar et. Al, ICML, 2017) • 概要 – Neural Network から重要な要素は何かを抽出す る方法のアプローチ(Deep Lift 法)を提案 – 既存手法より色々良さそう
4.
既存手法 • Perturbation approach •
Back propagation approach – Gradients • (Springenberg et. al. 2014) など – Gradients × Input • (Shrikumar et. al. 2016) など
5.
問題点1 • 勾配0になると問題が起こる Fig. 1
6.
問題点2 (ジャンプ) • ジャンプする(不連続) Fig.
2
7.
Deep Lift • 勾配の問題やジャンプの問題を解決する方 法を提案
(Deep Lift ) – 個人的にはどうしてこの発想になったのかわかっ ていないので多分ちゃんと理解できていない
8.
Deep Lift Philosophy ある層の値: 出力: reference
activation: difference-from-reference: ← 基準値みたいなもの(後で定義) Contribution Scores: • 各入力値 (xi) の出力値(t) への影 響度(後で定義) • これをどう計算するかが肝 ← 基準値からどれくらい外れるか
9.
Multipliers and the
Chain Rule Multipliers を以下のように定義 CHAIN RULE で を計算 (式(3))
10.
Defining the reference i1 i2 入力: 出力: Reference
activation: より以下のように Reference activation を計算
11.
Separating positive and
negative • ポジティブ項とネガティブ項を別々に考える Linear Rule, Rescale Rule, or Reveal cancel Rule により計算(後で定義)
12.
Contribution Scores の計算 •
線形な変換 → Linear Rule で計算 – 例: 結合層・たたみ込み層 • 非線形な変換 → Rescale Rule or Reveal cancel Rule で計算 – 例: tanh, ReLU
13.
The Linear Rule •
線形な部分 (結合・畳み込み)では以下のよう にContribution Scores を計算 に対して
14.
The Linear Rule このとき,
以下が成立
15.
THE RESCALE RULE •
非線形部分(ReLU, tanh など)では以下のよう に Contribution Scores を計算 • このとき以下が成立
16.
具体例: Rescale Rule i1 0
= i2 0 = 0, i1 + i2 > 1 の場合 Rescale Rule だと
17.
具体例: Rescale Rule2 x0
= y0 = 0, x = 10 + ε の場合 Rescale Rule だと 不自然なジャンプ 連続
18.
The Reveal Cancel
Rule
19.
具体例3 Fig. 3 これについて i1
> i2 , i1 0 = i2 0 = 0 という条件で と を計算 Rescale Rule を使う場合: Reveal Cancel Rule を使う場合:
20.
その他の工夫 • 最終層の活性化後の値に対する入力値の Contribution Score
ではなく活性化前の Contribution Score を計算 • 最終層が Softmax のときは全体の平均を引 いたスコアで考える
21.
数値実験1 • MNIST – Ex.
数字を8 から 3 に変える (一部消す) – Contribution Score の変化 値が消した部分に対応 するかどうか検証 – (ちゃんと把握できてません)
22.
数値実験2 • DNA 配列の分類に関する実験 •
意図通りに Contribution Score がつくかどう かを検証 • (すいません、ちゃんと把握できてません。)
23.
比較手法 • 既存手法 – Guided
backprop * inp () – Gradient * input – Integrated gradient -5 – Integrated gradient -10 • 提案手法 (Deep LIFT) – Deep LIFT Rescale – Deep LIFT Reveal Cancel – Deep LIFT fc-RC-conv-RS
24.
結果(MNIST) Deep Lift の方がよい
25.
結果 (DNA) • Deep
Lift の方がよい結果 • Reveal Cancel 入れた方がよい結果
26.
結論 • Deep Lift
という重要な要素は何かを抽出する方法 のフレームワーク(Deep Lift 法)を提案 • 既存手法 (gradient や gradient * input で起こるよう な不自然なジャンプや勾配が0のときに起こる問題 を解決) • RNNへの適用方法, Maxout, MaxPooling へのベスト な適用方法 などが課題