Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
EN
Uploaded by
Deep Learning JP
977 views
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainability
2021/08/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
Technology
◦
Related topics:
Deep Learning
•
Read more
1
Save
Share
Embed
Embed presentation
Download
Download to read offline
1
/ 19
2
/ 19
3
/ 19
4
/ 19
5
/ 19
6
/ 19
7
/ 19
8
/ 19
9
/ 19
10
/ 19
11
/ 19
12
/ 19
13
/ 19
14
/ 19
15
/ 19
16
/ 19
17
/ 19
18
/ 19
19
/ 19
More Related Content
PPTX
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
by
Deep Learning JP
PDF
自己教師学習(Self-Supervised Learning)
by
cvpaper. challenge
PDF
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
by
Deep Learning JP
PDF
時系列予測にTransformerを使うのは有効か?
by
Fumihiko Takahashi
PPTX
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
by
harmonylab
PDF
強化学習と逆強化学習を組み合わせた模倣学習
by
Eiji Uchibe
PPTX
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
by
Deep Learning JP
PDF
機械学習モデルの判断根拠の説明(Ver.2)
by
Satoshi Hara
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
by
Deep Learning JP
自己教師学習(Self-Supervised Learning)
by
cvpaper. challenge
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
by
Deep Learning JP
時系列予測にTransformerを使うのは有効か?
by
Fumihiko Takahashi
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
by
harmonylab
強化学習と逆強化学習を組み合わせた模倣学習
by
Eiji Uchibe
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
by
Deep Learning JP
機械学習モデルの判断根拠の説明(Ver.2)
by
Satoshi Hara
What's hot
PDF
ドメイン適応の原理と応用
by
Yoshitaka Ushiku
PDF
機械学習モデルの判断根拠の説明
by
Satoshi Hara
PDF
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
by
Kazuki Adachi
PPTX
[DL輪読会]相互情報量最大化による表現学習
by
Deep Learning JP
PPTX
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
by
Deep Learning JP
PDF
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
by
SSII
PPTX
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
by
Deep Learning JP
PDF
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
PPTX
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
by
Deep Learning JP
PDF
SSII2020TS: 機械学習モデルの判断根拠の説明 〜 Explainable AI 研究の近年の展開 〜
by
SSII
PDF
【DL輪読会】Implicit Behavioral Cloning
by
Deep Learning JP
PDF
[DL輪読会]Weight Agnostic Neural Networks
by
Deep Learning JP
PPTX
【DL輪読会】"A Generalist Agent"
by
Deep Learning JP
PPTX
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
by
Yusuke Uchida
PPTX
[DL輪読会]逆強化学習とGANs
by
Deep Learning JP
PPTX
【DL輪読会】EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Pointsfor...
by
Deep Learning JP
PDF
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
by
STAIR Lab, Chiba Institute of Technology
PDF
[DL輪読会]ICLR2020の分布外検知速報
by
Deep Learning JP
PDF
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
by
SSII
PDF
ECCV2020 Oral論文 完全読破(1/2)
by
cvpaper. challenge
ドメイン適応の原理と応用
by
Yoshitaka Ushiku
機械学習モデルの判断根拠の説明
by
Satoshi Hara
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
by
Kazuki Adachi
[DL輪読会]相互情報量最大化による表現学習
by
Deep Learning JP
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
by
Deep Learning JP
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
by
SSII
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
by
Deep Learning JP
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
by
Deep Learning JP
SSII2020TS: 機械学習モデルの判断根拠の説明 〜 Explainable AI 研究の近年の展開 〜
by
SSII
【DL輪読会】Implicit Behavioral Cloning
by
Deep Learning JP
[DL輪読会]Weight Agnostic Neural Networks
by
Deep Learning JP
【DL輪読会】"A Generalist Agent"
by
Deep Learning JP
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
by
Yusuke Uchida
[DL輪読会]逆強化学習とGANs
by
Deep Learning JP
【DL輪読会】EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Pointsfor...
by
Deep Learning JP
画像キャプションと動作認識の最前線 〜データセットに注目して〜(第17回ステアラボ人工知能セミナー)
by
STAIR Lab, Chiba Institute of Technology
[DL輪読会]ICLR2020の分布外検知速報
by
Deep Learning JP
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
by
SSII
ECCV2020 Oral論文 完全読破(1/2)
by
cvpaper. challenge
Similar to 【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainability
PDF
顕著性マップの推定手法
by
Takao Yamanaka
PPTX
"There and Back Again: Revisiting Backpropagation Saliency Methods" (CVPR2020)
by
Shoki Miyagawa
PPTX
20170618論文読み会 伊藤
by
Tomoki Itou
PDF
CHAIN公開セミナー20200817吉田発表資料
by
Masatoshi Yoshida
PDF
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集 〜 精度向上のための仕組み・倫理や社会性バイアス 〜
by
SSII
PDF
「デザイニング・インターフェース」勉強会 - 第7章
by
Tsutomu Kawamura
PDF
サリエンシーマップの視線計測への応用
by
Masatoshi Yoshida
顕著性マップの推定手法
by
Takao Yamanaka
"There and Back Again: Revisiting Backpropagation Saliency Methods" (CVPR2020)
by
Shoki Miyagawa
20170618論文読み会 伊藤
by
Tomoki Itou
CHAIN公開セミナー20200817吉田発表資料
by
Masatoshi Yoshida
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集 〜 精度向上のための仕組み・倫理や社会性バイアス 〜
by
SSII
「デザイニング・インターフェース」勉強会 - 第7章
by
Tsutomu Kawamura
サリエンシーマップの視線計測への応用
by
Masatoshi Yoshida
More from Deep Learning JP
PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
by
Deep Learning JP
PPTX
【DL輪読会】事前学習用データセットについて
by
Deep Learning JP
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
by
Deep Learning JP
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
by
Deep Learning JP
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
by
Deep Learning JP
PPTX
【DL輪読会】マルチモーダル LLM
by
Deep Learning JP
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
by
Deep Learning JP
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
by
Deep Learning JP
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
by
Deep Learning JP
PPTX
【DL輪読会】Hopfield network 関連研究について
by
Deep Learning JP
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
by
Deep Learning JP
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
by
Deep Learning JP
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
by
Deep Learning JP
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
by
Deep Learning JP
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
by
Deep Learning JP
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
by
Deep Learning JP
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
by
Deep Learning JP
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
by
Deep Learning JP
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
by
Deep Learning JP
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
by
Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
by
Deep Learning JP
【DL輪読会】事前学習用データセットについて
by
Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
by
Deep Learning JP
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
by
Deep Learning JP
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
by
Deep Learning JP
【DL輪読会】マルチモーダル LLM
by
Deep Learning JP
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
by
Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
by
Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?
by
Deep Learning JP
【DL輪読会】Hopfield network 関連研究について
by
Deep Learning JP
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
by
Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
by
Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
by
Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
by
Deep Learning JP
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
by
Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
by
Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
by
Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
by
Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
by
Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
by
Deep Learning JP
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainability
1.
1 DEEP LEARNING JP [DL
Papers] http://deeplearning.jp/ “Where do Models goWrong? Parameter-Space Saliency Maps for Explainability” Naoki Nonaka 2021/8/26
2.
書誌情報 2021/8/26 2 • 会議:Arxiv投稿 •
著者:
3.
概要 2021/8/26 3 p 深層学習モデルの解釈性の問題に取り組んだ研究 p
誤分類に影響したパラメータを分析するアプローチ p 誤分類への影響の大きいパラメータを補正することで性能改善 できることを示した
4.
背景: モデルの説明性とSaliency 2021/8/26 4 Saliency
map: ラベルの予測に寄与する要素を特定する手法 → 代表的な手法としてGrad-CAM(下図) 入力 GradCAM [紹介論文のAppendixより] モデルの説明性が求められる領域は多い
5.
背景 2021/8/26 5 従来手法 提案手法 入力の要素(ピクセル) に注目 モデルのパラメータ に注目
6.
提案手法: Saliency profile 2021/8/26
6 1. 各モデルパラメータについての損失関数の勾配の大きさ 2. CNNではフィルタごとに平均値を算出 3. 全サンプルでの平均μ・標準偏差σで標準化
7.
フィルタごとの勾配 / Saliency
profileの比較 2021/8/26 7 Shallow Deep p 勾配(上段):浅い層のSaliencyが大きい p 提案手法(下段):層間でのSaliencyの違いが小さい
8.
分類の正誤とSaliency 2021/8/26 8 Shallow Deep p
正解例(上段):Saliencyは -0.3 0.0 p 誤答例(下段):Saliencyは 0 6 → スケールが大きい 不具合の原因のフィルタを特定できる可能性
9.
Saliency profileによる入力の重み付け 2021/8/26 9 Saliency
profileを元に誤分類に影響する入力のピクセルを特定する 1. 最もSalientなフィルタ群を選択 2. 選択したフィルタ群への入力を増やし,boosted saliency profile !!を得る 3. !!/ !間のコサイン距離を計算し,その勾配の絶対値を算出する = 各ピクセルが選択したフィルタFのSaliencyに影響を与える度合い
10.
Saliency profile 小括 2021/8/26
10 p モデルのパラメータに着目して分類に影響する素性を特定する手法 p 各層のSaliencyの値を算出して,層の総数に相当する次元のベクトルで表現 p 単に勾配を使用するのと比較して,層の深さによる影響が小さい p 誤分類したサンプルにおいてはSaliencyの値が大きくなる p saliency profileに影響するピクセルを特定可能
11.
実験・分析 2021/8/26 11 p Salientフィルタの除去 p
Saliency profileでの近傍サンプルの分析 p Salientフィルタの再学習 p フィルタの不具合を生じる入力特徴の分析
12.
Salient filterの除去 2021/8/26 12 以下の3つの規則に従ってフィルタを除去 n
Most salient n Random n Least salient 元のモデルで誤分類されたサンプルについて以下を算出 n 誤分類されたクラスの確信度 n 真のクラスの確信度 n 正しく分類されるようになったサンプルの割合
13.
Salient filterの除去 2021/8/26 13 Most
salientなフィルタを除いた場合, p 左図:誤分類されたクラスの確信度は大きく低下 p 中央図:真のクラスの確信度が向上(Pruning数20程度まで) p 右図:正しく分類されるサンプルが増加
14.
Saliency profileでの近傍サンプルの分析 2021/8/26 14 Saliency
profileの類似度が高いサンプルを表示 p 画像は類似している p 誤分類されるクラスのペアは同一
15.
Salient filterの再学習 2021/8/26 15 以下の3つの規則に従ってフィルタを選択し再学習 n
Most salient n Random n Least salient 元のモデルで誤分類されたサンプルについて以下を算出 n 正しく分類されるようになったサンプルの割合 n 正しく分類されるようになった近傍サンプルの割合 n 近傍サンプルにおける真のラベルの確信度の変化
16.
Salientフィルタの再学習 2021/8/26 16 Most salientなフィルタを除いた場合, p
左図:正しく分類されるようになるサンプル割合が多い p 中央図:正しく分類される近傍サンプルが増加 p 右図:近傍サンプルの確信度が向上
17.
フィルタの不具合を生じる入力特徴の分析 2021/8/26 17 n 予測ラベル:「シャチ」 n
真のラベル:「ホオジロザメ」
18.
フィルタの不具合を生じる入力特徴の分析 2021/8/26 18 p Saliencyの大きい領域を順番にMask 正解ラベル の確信度
19.
まとめ 2021/8/26 19 p Saliencyを分析において,ネットワークのパラメータに着目 p
Saliency profileを評価・補正することで, 誤分類されたサンプルを正しく分類できることを実験的に示した p Saliencyの大きい領域をmaskすることで誤分類を改善できる 場合があることを示した
Download