SlideShare a Scribd company logo
1 of 19
Download to read offline
“Why Should I Trust You?”
Explaining the Predictions of
Any Classifier
論文紹介
Twitter:@UMU____
何の論文か?
• 機械学習は,入力と出力の関係性を学習し,入力から出力を予
測する.
• 「なぜこの予測をしたのか?」予測の根拠
• 「学習した関係性は正しいのか?」モデルの正しさ
• 現在ある機械学習モデルのほとんどはこのような問いに答えら
れず,使用者から見ると“ブラックボックス”.
入力 出力
何の論文か?
この論文は,モデルによらない
• 予測に対する解釈可能な根拠を提示する“LIME”
• モデルが利用する複数の代表的な根拠を提示して,モデルを説
明する“SP-LIME”
を提案.
入力 出力
根拠
何の論文か?
予測の根拠の提示やモデルの説明を行うことで,
• 機械学習による予測を信頼性を高めること
• より良い機械学習モデルを選択すること
• 信頼できない機械学習モデルを改善すること
• また,なぜ信頼できないのかを理解すること
ができるようになる.
説明の流れ
題名の論文について大まかに説明していきます.(少し内容を変更したところがあります)
1.モデルの不信頼性の事例紹介
2.[根拠の提示]“LIME”の仕組み
3.[モデル説明]“SP-LIME”の仕組み
4.モデルの信頼性確認の事例紹介
不信頼性の事例紹介
• 2つのモデルがある(左右).
• どちらも,与えられた文書が“キリスト教(Christianity)”の話か
“無神論(Atheism)”の話かを判別するモデル.
• Accuracy(教師データと予測が一致する割合)は,右のモデルが
高い.
• では,実際の環境(in the wild)では,右を活用すべき?
不信頼性の事例紹介
LIMEによる予測の根拠
不信頼性の事例紹介
• 左のモデルの予測の根拠として挙げられているもの
God mean anyone this Koresh through
• 右のモデルの予測の根拠として挙げられているもの
Posting Host Re by in Nntp
• “Posting” “Host” “Re”はキリスト教にも無神論にも関係ない!
実は,Postingと書かれた文書が無神論の文書に局在(99%)
→“leakage”と呼ばれる現象.
“LIME”の仕組み
• 予測の信頼性を高めるために予測の根拠を提示する”LIME”
• 根拠提示器(ex LIME)に求められる性質:
〇解釈可能性 :提示する根拠が理解できる程度である(複雑
すぎない.)
〇局所的忠実性 :提示する根拠による判別とモデルによる判別
が近傍で一致する.
〇モデル非依存性:根拠提示器が特定のモデルに特化しない
“LIME”の仕組み
• これらの3つの性質を満たすために,LIMEでは,根拠が複雑
すぎないよう正規化したうえで,根拠による判別と,モデルに
よる判別が根拠を知りたい予測の入力の近傍で一致するような
根拠を選択する→入力に対する根拠となる.
• 数式化:
𝜉 𝑥 = argmin
𝑔∈𝐺
𝐿(𝑓, 𝑔, 𝜋 𝑥) + Ω(𝑔)
𝑥 ∶ 入力,𝜋 𝑥:近傍重み, 𝑓:モデルによる判別, 𝑔:根拠による判別,
𝐿: 𝑥の近傍で𝑓と𝑔がどれくらい違うか. Ω: 𝑔の複雑さ
“LIME”の仕組み
𝜉 𝑥 = argmin
𝑔∈𝐺
𝐿(𝑓, 𝑔, 𝜋 𝑥) + Ω(𝑔)
• 根拠とモデルが関係なくなればなるほどLが大きくな
る
• 根拠が複雑になればなるほどΩが大きくなる.
• πの影響で,xから遠いところほどLに寄与しない.
• ΩにL1ノルムを選ぶため,係数がスパースになる.
※スパース:ほとんどの係数がゼロになること.
• 論文では,gの具体例として線形判別,πの具体例と
して指数カーネルを用いている.
根
拠
係数
“LIME”の仕組み
LIMEの説明終わり
“SP-LIME”の仕組み
• “LIME”によってある予測に対する根拠を提示することができた.
しかし,モデル全体の説明にはなっていない.
• モデル全体(が妥当かどうか)を説明する方法:
沢山の入力-予測の組に対する根拠をみて,根拠が使用者にとっ
て妥当性があるかどうかを調べる.
→時間がかかる.
“SP-LIME”の仕組み
→“SP-LIME”:たくさんの根拠からモデルを代表する根拠を自動
的に選び出す.
自動で使用者が
見るべき根拠を
少なくしたい
これは真ん中の根拠と似
てるから使用者に見せる
必要がない
“SP-LIME”の仕組み
• “LIME”によって,根拠(どの要素が判別に
寄与するか)がわかった.
• たくさんの根拠を集めると,根拠行列Wが
できる.
• 根拠行列の1列は,モデルにおいて,ある
要素がどの程度判別に貢献しているかを示
す.
• 大域的重要性𝐼𝑗 = Σ𝑖 𝑊𝑖𝑗 を導入.
(列の総和の平方根)
根拠行列.各1行がある入力
-予測に対する根拠となる.
白はゼロで黒はゼロでない
1行
“SP-LIME”の仕組み
• 根拠を複数選んだとき,その全体の重要性
cは,選んだ根拠に1つでも含まれるゼロ
でない根拠の要素の大域的重要性𝐼𝑗の総和
で計算される.
• 選ぶ根拠の数を一定以下にしたままcを最
大化するような根拠の組を選択する.
→代表的な根拠を抽出した.
2行と5行を選んだときは,
赤点の列の大域的重要性が
総和されるSP-LIMEの説明終わ
り
モデルの信頼性確認の事例紹介
• ハスキーと狼を判別するモデルを作成す
る.
• 学習データセットを集める際,狼の画像
には背景に雪が必ずあるものを,ハス
キーの画像には背景に雪が必ずないもの
を選んで学習させる.
• 入力として雪背景のハスキーを選ぶと,
狼と予測された.
→このときの根拠は?
ハスキー
モデルの信頼性確認の事例紹介
• LIMEによる根拠
ハスキーと判別した
根拠として,背景の
雪を選んでいること
がわかる.
→データセットの偏
りを把握することが
できた.
注:論文中では,機械学習の知識を持
つ大学院生が,LIMEによる根拠を提
示する前とした後でこのモデルが信頼
できるかどうかについて変化するかを
示したものです.
まとめ
• 機械学習では,モデルがなぜそのような予測したのかについて
の根拠の提示,およびモデル全体が信頼できるかについての説
明をすることは重要である.
• 根拠の提示をするために,LIMEを提案した.
• モデルの説明をするために,SP-LIMEを提案した.
• 根拠の提示とモデルの説明の効果を検証した.

More Related Content

What's hot

ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索西岡 賢一郎
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築Kosuke Shinoda
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?hoxo_m
 
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3Preferred Networks
 
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?Deep Learning JP
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門hoxo_m
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)Satoshi Hara
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)MLSE
 
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fieldscvpaper. challenge
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたいTakuji Tahara
 
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究Satoshi Hara
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門Takuji Tahara
 
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」Ken'ichi Matsui
 

What's hot (20)

KDD2016勉強会 資料
KDD2016勉強会 資料KDD2016勉強会 資料
KDD2016勉強会 資料
 
ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
 
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
 
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
モデルベース協調フィルタリングにおける推薦の透明性に関する検討
モデルベース協調フィルタリングにおける推薦の透明性に関する検討モデルベース協調フィルタリングにおける推薦の透明性に関する検討
モデルベース協調フィルタリングにおける推薦の透明性に関する検討
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
 
【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields【メタサーベイ】Neural Fields
【メタサーベイ】Neural Fields
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
 
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
 
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
 

Viewers also liked

PRML10.1〜10.4 大域的変分推論法の紹介
PRML10.1〜10.4 大域的変分推論法の紹介PRML10.1〜10.4 大域的変分推論法の紹介
PRML10.1〜10.4 大域的変分推論法の紹介KCS Keio Computer Society
 
Image-to-Image Translation with Conditional Adversarial Networksの紹介
Image-to-Image Translation with Conditional Adversarial Networksの紹介Image-to-Image Translation with Conditional Adversarial Networksの紹介
Image-to-Image Translation with Conditional Adversarial Networksの紹介KCS Keio Computer Society
 
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介KCS Keio Computer Society
 
Unsupervised Image-to-Image Translation Networksの紹介
Unsupervised Image-to-Image Translation Networksの紹介Unsupervised Image-to-Image Translation Networksの紹介
Unsupervised Image-to-Image Translation Networksの紹介KCS Keio Computer Society
 
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...KCS Keio Computer Society
 
Phonetic Posteriorgrams for Many-to-One Voice Conversion without Parallel Dat...
Phonetic Posteriorgrams for Many-to-One Voice Conversion without Parallel Dat...Phonetic Posteriorgrams for Many-to-One Voice Conversion without Parallel Dat...
Phonetic Posteriorgrams for Many-to-One Voice Conversion without Parallel Dat...KCS Keio Computer Society
 
ハミルトニアンモンテカルロ法についての説明
ハミルトニアンモンテカルロ法についての説明ハミルトニアンモンテカルロ法についての説明
ハミルトニアンモンテカルロ法についての説明KCS Keio Computer Society
 
Tutorial of topological_data_analysis_part_1(basic)
Tutorial of topological_data_analysis_part_1(basic)Tutorial of topological_data_analysis_part_1(basic)
Tutorial of topological_data_analysis_part_1(basic)Ha Phuong
 
Topological data analysis
Topological data analysisTopological data analysis
Topological data analysisSunghyon Kyeong
 
Nltk natural language toolkit overview and application @ PyCon.tw 2012
Nltk  natural language toolkit overview and application @ PyCon.tw 2012Nltk  natural language toolkit overview and application @ PyCon.tw 2012
Nltk natural language toolkit overview and application @ PyCon.tw 2012Jimmy Lai
 
Documentation with sphinx @ PyHug
Documentation with sphinx @ PyHugDocumentation with sphinx @ PyHug
Documentation with sphinx @ PyHugJimmy Lai
 
CVPR2016読み会 "Inside-Outside Net: Detecting Objects in Context with Skip Pooli...
CVPR2016読み会 "Inside-Outside Net: Detecting Objects in Context with Skip Pooli...CVPR2016読み会 "Inside-Outside Net: Detecting Objects in Context with Skip Pooli...
CVPR2016読み会 "Inside-Outside Net: Detecting Objects in Context with Skip Pooli...The University of Tokyo
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定Hiroshi Nakagawa
 
Statistical machine translation for indian language copy
Statistical machine translation for indian language   copyStatistical machine translation for indian language   copy
Statistical machine translation for indian language copyNakul Sharma
 
Response Summarizer: An Automatic Summarization System of Call Center Convers...
Response Summarizer: An Automatic Summarization System of Call Center Convers...Response Summarizer: An Automatic Summarization System of Call Center Convers...
Response Summarizer: An Automatic Summarization System of Call Center Convers...Preferred Networks
 
対話における商品の営業
対話における商品の営業対話における商品の営業
対話における商品の営業Preferred Networks
 

Viewers also liked (20)

PRML10.1〜10.4 大域的変分推論法の紹介
PRML10.1〜10.4 大域的変分推論法の紹介PRML10.1〜10.4 大域的変分推論法の紹介
PRML10.1〜10.4 大域的変分推論法の紹介
 
Depth Creates No Bad Local Minimaの紹介
Depth Creates No Bad Local Minimaの紹介Depth Creates No Bad Local Minimaの紹介
Depth Creates No Bad Local Minimaの紹介
 
TDAの概要と適用・有用性
TDAの概要と適用・有用性TDAの概要と適用・有用性
TDAの概要と適用・有用性
 
Image-to-Image Translation with Conditional Adversarial Networksの紹介
Image-to-Image Translation with Conditional Adversarial Networksの紹介Image-to-Image Translation with Conditional Adversarial Networksの紹介
Image-to-Image Translation with Conditional Adversarial Networksの紹介
 
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
 
AI班ハードウェア領域
AI班ハードウェア領域AI班ハードウェア領域
AI班ハードウェア領域
 
Unsupervised Image-to-Image Translation Networksの紹介
Unsupervised Image-to-Image Translation Networksの紹介Unsupervised Image-to-Image Translation Networksの紹介
Unsupervised Image-to-Image Translation Networksの紹介
 
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
 
Phonetic Posteriorgrams for Many-to-One Voice Conversion without Parallel Dat...
Phonetic Posteriorgrams for Many-to-One Voice Conversion without Parallel Dat...Phonetic Posteriorgrams for Many-to-One Voice Conversion without Parallel Dat...
Phonetic Posteriorgrams for Many-to-One Voice Conversion without Parallel Dat...
 
Random forest の解説
Random forest の解説Random forest の解説
Random forest の解説
 
ハミルトニアンモンテカルロ法についての説明
ハミルトニアンモンテカルロ法についての説明ハミルトニアンモンテカルロ法についての説明
ハミルトニアンモンテカルロ法についての説明
 
Tutorial of topological_data_analysis_part_1(basic)
Tutorial of topological_data_analysis_part_1(basic)Tutorial of topological_data_analysis_part_1(basic)
Tutorial of topological_data_analysis_part_1(basic)
 
Topological data analysis
Topological data analysisTopological data analysis
Topological data analysis
 
Nltk natural language toolkit overview and application @ PyCon.tw 2012
Nltk  natural language toolkit overview and application @ PyCon.tw 2012Nltk  natural language toolkit overview and application @ PyCon.tw 2012
Nltk natural language toolkit overview and application @ PyCon.tw 2012
 
Documentation with sphinx @ PyHug
Documentation with sphinx @ PyHugDocumentation with sphinx @ PyHug
Documentation with sphinx @ PyHug
 
CVPR2016読み会 "Inside-Outside Net: Detecting Objects in Context with Skip Pooli...
CVPR2016読み会 "Inside-Outside Net: Detecting Objects in Context with Skip Pooli...CVPR2016読み会 "Inside-Outside Net: Detecting Objects in Context with Skip Pooli...
CVPR2016読み会 "Inside-Outside Net: Detecting Objects in Context with Skip Pooli...
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
 
Statistical machine translation for indian language copy
Statistical machine translation for indian language   copyStatistical machine translation for indian language   copy
Statistical machine translation for indian language copy
 
Response Summarizer: An Automatic Summarization System of Call Center Convers...
Response Summarizer: An Automatic Summarization System of Call Center Convers...Response Summarizer: An Automatic Summarization System of Call Center Convers...
Response Summarizer: An Automatic Summarization System of Call Center Convers...
 
対話における商品の営業
対話における商品の営業対話における商品の営業
対話における商品の営業
 

Similar to “Why Should I Trust You?” Explaining the Predictions of Any Classifierの紹介

20200420 lime skype_
20200420 lime skype_20200420 lime skype_
20200420 lime skype_Tomohisa Seki
 
How to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & imlHow to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & imlSatoshi Kato
 
推薦システムを構築する手順書 with Azure Machine Learning
推薦システムを構築する手順書 with Azure Machine Learning推薦システムを構築する手順書 with Azure Machine Learning
推薦システムを構築する手順書 with Azure Machine LearningMasayuki Ota
 
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」Shinohara Masahiro
 
Active Learning from Imperfect Labelers @ NIPS読み会・関西
Active Learning from Imperfect Labelers @ NIPS読み会・関西Active Learning from Imperfect Labelers @ NIPS読み会・関西
Active Learning from Imperfect Labelers @ NIPS読み会・関西Taku Tsuzuki
 
科学的説明を持つ機械学習システム
科学的説明を持つ機械学習システム科学的説明を持つ機械学習システム
科学的説明を持つ機械学習システムgree_tech
 
スマートなシステム、スマートなディペンダビリティ保証-次世代システムを頼れるものへ
スマートなシステム、スマートなディペンダビリティ保証-次世代システムを頼れるものへスマートなシステム、スマートなディペンダビリティ保証-次世代システムを頼れるものへ
スマートなシステム、スマートなディペンダビリティ保証-次世代システムを頼れるものへFuyuki Ishikawa
 

Similar to “Why Should I Trust You?” Explaining the Predictions of Any Classifierの紹介 (11)

20200420 lime skype_
20200420 lime skype_20200420 lime skype_
20200420 lime skype_
 
How to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & imlHow to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & iml
 
Jsai2020
Jsai2020Jsai2020
Jsai2020
 
推薦システムを構築する手順書 with Azure Machine Learning
推薦システムを構築する手順書 with Azure Machine Learning推薦システムを構築する手順書 with Azure Machine Learning
推薦システムを構築する手順書 with Azure Machine Learning
 
EMNLP 2011 reading
EMNLP 2011 readingEMNLP 2011 reading
EMNLP 2011 reading
 
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」
 
論文の書き方
論文の書き方論文の書き方
論文の書き方
 
Genius Halloween Festival 2016
 Genius Halloween Festival 2016 Genius Halloween Festival 2016
Genius Halloween Festival 2016
 
Active Learning from Imperfect Labelers @ NIPS読み会・関西
Active Learning from Imperfect Labelers @ NIPS読み会・関西Active Learning from Imperfect Labelers @ NIPS読み会・関西
Active Learning from Imperfect Labelers @ NIPS読み会・関西
 
科学的説明を持つ機械学習システム
科学的説明を持つ機械学習システム科学的説明を持つ機械学習システム
科学的説明を持つ機械学習システム
 
スマートなシステム、スマートなディペンダビリティ保証-次世代システムを頼れるものへ
スマートなシステム、スマートなディペンダビリティ保証-次世代システムを頼れるものへスマートなシステム、スマートなディペンダビリティ保証-次世代システムを頼れるものへ
スマートなシステム、スマートなディペンダビリティ保証-次世代システムを頼れるものへ
 

More from KCS Keio Computer Society

Large scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalLarge scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalKCS Keio Computer Society
 
Vector-Based navigation using grid-like representations in artificial agents
 Vector-Based navigation using grid-like representations in artificial agents Vector-Based navigation using grid-like representations in artificial agents
Vector-Based navigation using grid-like representations in artificial agentsKCS Keio Computer Society
 
ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読KCS Keio Computer Society
 
ゼロから作るDeepLearning 3.3~3.6章 輪読
ゼロから作るDeepLearning 3.3~3.6章 輪読ゼロから作るDeepLearning 3.3~3.6章 輪読
ゼロから作るDeepLearning 3.3~3.6章 輪読KCS Keio Computer Society
 
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
[論文略説]Stochastic Thermodynamics Interpretation of Information GeometryKCS Keio Computer Society
 

More from KCS Keio Computer Society (20)

Large scale gan training for high fidelity natural
Large scale gan training for high fidelity naturalLarge scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
 
Imagenet trained cnns-are_biased_towards
Imagenet trained cnns-are_biased_towardsImagenet trained cnns-are_biased_towards
Imagenet trained cnns-are_biased_towards
 
機械学習ゼミ: Area attenttion
機械学習ゼミ: Area attenttion機械学習ゼミ: Area attenttion
機械学習ゼミ: Area attenttion
 
機械学習ゼミ 2018/10/17
機械学習ゼミ 2018/10/17機械学習ゼミ 2018/10/17
機械学習ゼミ 2018/10/17
 
機械学習ゼミ2018 06 15
機械学習ゼミ2018 06 15機械学習ゼミ2018 06 15
機械学習ゼミ2018 06 15
 
Control by deep learning
Control by deep learningControl by deep learning
Control by deep learning
 
深層学習 第6章
深層学習 第6章深層学習 第6章
深層学習 第6章
 
Vector-Based navigation using grid-like representations in artificial agents
 Vector-Based navigation using grid-like representations in artificial agents Vector-Based navigation using grid-like representations in artificial agents
Vector-Based navigation using grid-like representations in artificial agents
 
文章生成の未解決問題
文章生成の未解決問題文章生成の未解決問題
文章生成の未解決問題
 
Word2vec alpha
Word2vec alphaWord2vec alpha
Word2vec alpha
 
テンソル代数
テンソル代数テンソル代数
テンソル代数
 
Hindsight experience replay
Hindsight experience replayHindsight experience replay
Hindsight experience replay
 
Kml 輪読514
Kml 輪読514Kml 輪読514
Kml 輪読514
 
ゼロから作るDeepLearning 5章 輪読
ゼロから作るDeepLearning 5章 輪読ゼロから作るDeepLearning 5章 輪読
ゼロから作るDeepLearning 5章 輪読
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読
 
ゼロから作るDeepLearning 4章 輪読
ゼロから作るDeepLearning 4章 輪読ゼロから作るDeepLearning 4章 輪読
ゼロから作るDeepLearning 4章 輪読
 
Soft Actor Critic 解説
Soft Actor Critic 解説Soft Actor Critic 解説
Soft Actor Critic 解説
 
ゼロから作るDeepLearning 3.3~3.6章 輪読
ゼロから作るDeepLearning 3.3~3.6章 輪読ゼロから作るDeepLearning 3.3~3.6章 輪読
ゼロから作るDeepLearning 3.3~3.6章 輪読
 
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
 

“Why Should I Trust You?” Explaining the Predictions of Any Classifierの紹介