4. Exploring Interpretable LSTM Neural Networks over Multi-Variable Data
Tian Guo, Tao Lin, Nino Antolov-Fantulin
(ETH Zurich, EPFL)
多変量データにおいて、変数毎に隠れ状態を計算し、それをsoft attentionで混合
させることで予測を出すモデルを提案
変数毎のattentionと時間⽅向のattentionを同時に学習する⽅法
精度を向上させながら解釈もできる
4
5. 問題設定
Given : N-1-次元の外⽣変数と1次元のターゲット変数の組の系列
Goal : 時刻 のターゲット変数 を予測
更に副産物として変数/時刻に対する重要度
I ∈ R , I =≥0
N
n=1
∑
N
n 1
T ∈n
R , T =≥0
T
k=1
∑
T
k
n
1, n = 1, ⋯ , N
を得たい。
X =T (x , ⋯ , x ), x =1 T t [x , ⋯ , x , y ] ∈t
1
t
N−1
t RN
T + 1 =y^T+1 F(X )T
5
23. 問題設定
Input :
Output :
outputの各成分 に対する各⼊⼒の「寄与度」 を計算
する
Saliency map (cf. Simonyan, et al. '14)
他の勾配ベースの⼿法も考えられるが簡単のため今回はsaliencyを⽤いる
X = (x , ⋯ , x ), x ∈1 T t RN
S(X) = [S (X), ⋯ , S (X)]1 C
Sc R =c
[R ] ∈t,n
c
RT×N
23
25. 提案⼿法︓Input-Cell Attention
LSTMへの⼊⼒ を重み付き和 に置き換える︓
A =t softmax(W tanh(W X ) ∈2 1 t
T
Rr×t
M =t A X ∈t t Rr×N
は「いくつの時刻に注意するか」
新しい⼊⼒ のサイズが⼤きいので⾏ベクトルの平均をとって 次元に落としてもよ
い
xt Mt
r
Mt N
25
31. 今年出てるやつ(全く読めてない)
Interpretable Sequence Classification Via Prototype Trajectory (NeurIPS'20投稿?)
Counterfactual Explanations for Machine Learning on Multivariate Time Series Data
RNNではない。
Attention Mechanism for Multivariate Time Series Recurrent Model Interpretability
Applied to the Ironmaking Industry
31