Learning how to explain neural networks: PatternNet and PatternAttribution
1.
Learning how toexplain neural networks
PatternNet and PatternAttribution
PJ Kindermans et al. 2017
์๊ท๋น
๊ณ ๋ ค๋ํ๊ต ์ฐ์ ๊ฒฝ์๊ณตํ๊ณผ
Data Science & Business Analytics ์ฐ๊ตฌ์ค
2.
/ 29
๋ชฉ์ฐจ
1. ๊ณผ๊ฑฐ๋ฐฉ๋ฒ๋ก ๋ค์ ์ ๋ฐ์ ์ธ ๋ฌธ์ ์
2. ๊ณผ๊ฑฐ ๋ฐฉ๋ฒ๋ก ๋ถ์
1) DeConvNet
2) Guided BackProp
3. Linear model ๊ตฌ์
1) Deterministic distractor
2) Additive isotropic Gaussian noise
4. Approaches
5. Quality criterion for signal estimator
6. Learning to estimate signal
1) Existing estimators
2) PatternNet & PatternAttribution
7. Experiments
2
/ 29
3.1 ๋จ์ํLinear Model ๊ตฌ์ - Deterministic distractor
๋จ์ํ Linear model์ ํตํด signal๊ณผ distractor์ ์์ง์ ๊ด์ฐฐ
15
Notation
โข w : filter or weight
โข x : data
โข y : condensed output
โข s : relevant signal
โข d : distracting component.
์ํ๋ output์ ๋ํด ์๋ฌด๋ฐ
์ ๋ณด๋ ๊ฐ์ง๊ณ ์์ง ์์ ๋ถ๋ถ
โข a_s : direction of signal.โจ
์ํ๋ output์ ํผ์ง ๋ชจ์
โข a_d : direction of distractor
s = asyx = s + d
d = adฯต
as = (1,0)T
ad = (1,1)T
y โ [โ1,1]
ฯต โผ ๐ฉ(ฮผ, ฯ2
)
โขData x ๋ signal s์ distractor d์ ํฉ
โข์ ์์์์ ์ ๋ง์กฑํ๊ธฐ ์ํด์
โข ์ด๊ณ , ์ด์ด์ผ ํ๊ธฐ ๋๋ฌธ
wT
x = y w = [1, โ 1]T
wT
asy = y wT
adฯต = 0