KCS AI班2017年2月22日の活動。
“Why Should I Trust You?” Explaining the Predictions of Any Classifier (Ribeiro et al., 2016)の紹介。
機械学習のモデルの解釈可能な根拠を提示する手法「LIME」の論文。
KCS AI班2017年2月22日の活動。
“Why Should I Trust You?” Explaining the Predictions of Any Classifier (Ribeiro et al., 2016)の紹介。
機械学習のモデルの解釈可能な根拠を提示する手法「LIME」の論文。
This document discusses using deep learning and voluntary sexual histories to classify electrodermal images. Researchers in Hong Kong and India used a deep learning model and voluntary sexual histories to classify electrodermal images with recent sexual activities. The model was able to accurately classify images as having recent sexual content using only electrodermal features and voluntary sexual histories.
This document discusses using deep learning and voluntary sexual histories to classify electrodermal images. Researchers in Hong Kong and India used a deep learning model and voluntary sexual histories to classify electrodermal images with recent sexual activities. The model was able to accurately classify images as having recent sexual content using only electrodermal features and voluntary sexual histories.
4. 2. THE CASE FOR EXPLANATIONS
予測結果を説明するとは
⼊⼒したデータの構成要素 (例︓テキストであれば単語、画像であれば特定の領域) と予測結果の関係性
を⽰す⾔語的または視覚的な表現
5. Desired Characteristics for Explainers
⼊⼒と出⼒の間の質的な理解を与えるものではなくてはならない。
機械学習の専⾨家でなくとも解釈できることが好ましい。
Local fidelity
Model-agnostic
Providing a global perspective
Interpretable
予測結果の説明性については局所的な忠実性が保たれなくてはならない。
どのようなモデルにも適⽤可能でなくてはならない。
モデル全体の信憑性の評価に⽤いることが可能であることが重要である。
6. 3. LOCAL INTERPRETABLE MODEL-AGNOSTIC EXPLANATIONS
3.1 Interpretable Data Representations
→
解釈性を得るために、元の⼊⼒データを⼈間にとって理解しやすい形にして表現する
3.2 Fidelity-Interpretability Trade-off
:解釈のためのモデル
:モデルの複雑さを⽰す関数
:説明したいモデル
:z と x の距離を⽰す関数
本論⽂では g にSparse linear modelを⽤いる
7. 3. LOCAL INTERPRETABLE MODEL-AGNOSTIC EXPLANATIONS
3.3 Sampling for Local Exploration
説明⽤モデルとして線形モデルをおく
3.4 Sparse Linear Explanations
g の f に対する近似によって⽣じる差を以下とする
→
x’ の0でない要素をランダムに変更し、z’ を⽣成
→
f(z) をそれぞれの z’ のラベルとしてデータセット Z を⽣成する
但し として
近いデータにより⼤きな重みがかかるようにする
8. 3.5 Example 1: Text classification with SVMs
3. LOCAL INTERPRETABLE MODEL-AGNOSTIC EXPLANATIONS
the 20 newsgroup datasetを⽤い、 SVMで “Christianity” か “Atheism” を判別するモデルを作成。
Accuracy 94%であったが、予測の根拠を可視化すると全然汎化できていないことがわかる。
9. 3.6 Example 2: Deep networks for images
3. LOCAL INTERPRETABLE MODEL-AGNOSTIC EXPLANATIONS
学習済みのInceptionモデルにaの画像を⼊⼒してその説明性を検討。
予測の根拠となっている領域は、⼈間の感覚で妥当と⾔えることがわかる。
10. 4. SUBMODULAR PICK FOR EXPLAINING MODELS
submodular pick(SP)︓複数の予測に対して得られた説明を、劣モジュラ最適化を⽤いて統合
少ない説明件数でカバーされる特徴数が最⼤化されるように統合する
ここまでの⼿法では、「① 結果として得られた予測が信⽤できるか」しか評価できない。
では、「② モデル⾃体が信⽤できるか」をどう評価するか。
→ インスタンス X から適切に評価に⽤いる B をピックアップし、Bに対する説明を統合してモデル全体を評価する。
12. 5. SIMULATED USER EXPERIMENTS
(1) ⽣成された予測の説明はモデルに対して忠実か
(2) ⽣成された予測の説明はユーザーがその予測を信⽤できるかどうか判断するのに有⽤か
(3) ⽣成された予測の説明はユーザーがそのモデル全体を信⽤できるかどうか判断するのに有⽤か
・・・を検証する。
5.1 Experiment Setup
感情分析⽤のBooksデータセット、DVDデータセット(それぞれ2000インスタンス、うち1600を学習⽤、400をテスト⽤)
を利⽤。
・decision trees (DT)
・logistic regression with L2 regularization (LR)
・nearest neighbors (NN)
・support vector machines with RBF kernel (SVM)
・LIME
・parzen: カーネル密度推定を⽤いモデルを近似し、得られた確率密度関数のgradientを⽤いる
(D. Baehrens et al. Journal of Machine Learning Research, 2010)
・greedy: 出⼒する予測が変わってしまうまで特徴を除去し続ける (D. Martens et al.MIS Q, 2014)
説明⽣成の際の近似インスタンス数はN = 15, 000に設定、説明に提⽰する特徴数はK = 10とした。
・Random forest (RF)
Bag of wordsを特徴量として、以下のモデルを作成 word2vecの分散表現を特徴量として、以下のモデルを作成
モデル全体の説明⽣成の際にはrandom pick(RP)、submodular pick(SP)を⽐較した。
説明⽣成⼿法として下記を⽐較
13. 5. SIMULATED USER EXPERIMENTS
5.2 Are explanations faithful to the model?
(1) ⽣成された予測の説明はモデルに対して忠実か、を検証
特徴数の最⼤が10となるようSparse linear regression
とDecision treeを構築し、確実に有⽤な特徴を同定。
テストデータに対する説明⽣成で同定した重要な特徴がどれ
だけ再現されるかをRecallを⽤いて評価した。
LIMEは常に90%以上のRecallを達成した。
14. 5. SIMULATED USER EXPERIMENTS
5.3 Should I trust this prediction?
“untrustworthy”である特徴を除去して予測結果が変
わった場合には、そのテストデータに対する予測を
“untrustworthy” とラベル付けし、変わらなければ
“trustworthy” とそれぞれの説明に対してラベル付けする。
説明に表⽰された特徴の中の“untrustworthy” に該当す
る特徴を除去して予測結果が変わった場合にはユーザーは
説明を信⽤しないと仮定し、ラベルに対するF1スコアを算出
した。
(2) ⽣成された予測の説明はユーザーがその予測を信⽤できるかどうか
判断するのに有⽤か、を検証
結果はLIMEが他を圧倒した。
15. 5. SIMULATED USER EXPERIMENTS
5.4 Can I trust this model?
(3) ⽣成された予測の説明はユーザーがそのモデル全体を信⽤できるか
どうか判断するのに有⽤か、を検証
Trainデータの中で特定のクラスに偏り、Testデータでは偏ら
ないノイズとなる特徴を意図的に⽣成。
ノイズとなる特徴が⽣成された説明に出現した場合、ユー
ザーはモデルを信⽤しないと仮定。
決定⽊数30のRandom forestの分類器をペアで作成し、
検証データで説明を⽣成。
Testデータに対するaccuracyが⾼いモデルと、ユーザーが信
⽤すると仮定されたモデルが⼀致するかを検証。
LIMEはgreedyより優れていた。また、SP-LIMEがより良い
結果であった。(parzenはrandamを少し上回る程度で
あったため、グラフからは省略されている。)
16. 6. EVALUATION WITH HUMAN SUBJECTS
6.1 Experiment setup
(1) 2つのモデルのうちより汎化された⽅を選択できるか
(2) 提⽰された説明に基づいて特徴量を再設計しモデルを改善できるか
(3) 提⽰された説明に基づいてモデルの不備を指摘できるか
The 20 newsgroups text dataset の中の “Christianity” と “Atheism”のデータを利⽤。
(ヘッダーや記載者名を含み、学習によって汎化しにくいデータであると)
Religion dataset: 検証⽤データとしてDMOZからChristianity、Atheismのサイトを抽出してそれぞれ819のweb
ページを準備。
SVMを⽤いて20 newsgroupsのデータでモデルを学習。交差検証でハイパーパラメータを調整。
・・・を被験者で検証する
17. 6. EVALUATION WITH HUMAN SUBJECTS
6.2 Can users select the best classifier?
汎化を阻害する単語を⼿作業で除去した20 newsgroupsのデータ
とそのままのデータでSVMでそれぞれモデルを学習し、汎化性能の⾼い
分類器(cleaned)と低い分類器(original)の2つのモデルを作成。
religion datasetに対して
originalモデルはaccuracy57.3%, cleanedは69.0%
20 newsgroup datasetに対して
originalモデルはaccuracy94.0%, cleanedは88.0%
被験者としてクラウドソーシングサービスであるAmazon Mechanical Turkを利⽤。被験者は機械学習のエキスパートでは
ない。
greedy, LIME(それぞれrandom pick(RP)、submodular pick(SP)の条件について実験)によって⽣成された説明を
⾒せて、被験者にどちらが汎化性が⾼いモデルかを選択させる。 各条件で100ユーザーで実験を⾏なった。
いずれの条件でもSPがRPより優れた結果であり、RP・SPいずれでもgreedyよりLIMEの⽅が優れていた。
(1) 2つのモデルのうちより汎化された⽅を選択できるか、を検証
18. 6. EVALUATION WITH HUMAN SUBJECTS
6.3 Can non-experts improve a classifier?
被験者として同じくAmazon Mechanical Turkを利⽤。
(2) 提⽰された説明に基づいて特徴量を再設計しモデルを改善できるか、を検証
(要は汎化の阻害となっている特徴を識別して除去できるか、を検証)
originalモデルにおいて10個のインスタンス(B = 10)、10単語 (K
= 10)の説明を⾒せ、学習に不要と考える単語を選択してもらう。
10⼈に除去する単語ををれぞれ選択してもらい、再学習したモデル
はさらにその後5⼈に単語除去をしてもらうサイクルを2回⾏う(最終
的に10x5x5=250個のモデルが作成される)。
SP-LIMEの⽅がRP-LIMEよりモデルの汎化に有⽤であった。
19. 6. EVALUATION WITH HUMAN SUBJECTS
6.4 Do explanations lead to insights?
学習済みのInceptionの最初のmax pooling層の重みを特
徴量として、20枚のオオカミとハスキー⽝の画像を⽤いて
logistic regression model (bad model) を作成。
20枚のオオカミとハスキー⽝の画像を準備。全てオオカミの画像
の背景は雪となっており、ハスキー⽝はそうなっていないように意
図的に準備。
60枚の追加画像を⽤いて、モデルが背景に基づいてオオカミかハ
スキー⽝かを出⼒していることを確認。
10枚のテスト画像から得られた説明で被験者にモデルの信憑性
について質問した。
モデルの予測に対する説明は、モデルの不備に気づくのに有⽤で
あった。
(3) 提⽰された説明に基づいてモデルの不備を指摘できるか、を検証
20. 7. RELATED WORK
D. Baehrens, T. Schroeter, S. Harmeling, M. Kawanabe, K. Hansen, and K.-R. Mu ¨ller. How to explain individual
classification decisions. Journal of Machine Learning Research, 11, 2010.
M. W. Craven and J. W. Shavlik. Extracting tree-structured representations of trained networks. Neural information
processing systems (NIPS), pages 24–30, 1996.
学習したモデルから近似した決定⽊を⽣成する
説明として予測に対するfeatureのgradient vectorを利⽤
I. Sanchez, T. Rocktaschel, S. Riedel, and S. Singh. Towards extracting faithful and descriptive representations of latent
variable models. In AAAI Spring Syposium on Knowledge Representation and Reasoning (KRR): Integrating Symbolic and
Neural Approaches, 2015.
ロジックルールとBayesianネットワークを利⽤した説明
E. Strumbelj and I. Kononenko. An efficient explanation of individual classifications using game theory. Journal of Machine
Learning Research, 11, 2010.
Model-agnosticな説明⼿法
Game theoryを⽤いてモデルへの寄与を可視化
サンプリングに基づいた説明⽣成
21. 8. CONCLUSION AND FUTURE WORK
機械学習モデルの予測の説明を表現する⼿法としてLIMEを提案した。本⼿法は機械学習
⼿法の種類を問わず適⽤可能である。
機械学習モデル⾃体の説明性を検討する⼿法としてSP-LIMEを提案した。
本実験では説明の表現にsparse linear modelを使⽤したが、それ以外の⼿法(決定
⽊など)も検討の余地があるだろう。
本⼿法は機械学習の種類、適⽤領域を問わないため、多くの応⽤が期待できる。
(speech, video, medical domainなど)
将来的なリアルタイムでの応⽤を⽬指し、本⼿法のより実⽤的な最適化を今後検証していく。