2019년 파이콘 한국에서 진행된 튜토리얼 자료입니다. Part 2 내용으로 LRP에 대한 튜토리얼 발표자료입니다. 아래 링크를 통해 행사 관련 정보를 확인하실 수 있습니다.
http://xai.unist.ac.kr/Tutorial/2018/
https://github.com/OpenXAIProject/PyConKorea2019-Tutorials
Part 1: https://www.slideshare.net/OpenXAI/2019-part-1
Part 2: https://www.slideshare.net/OpenXAI/2019-lrp-part-2
Part 3: https://www.slideshare.net/OpenXAI/2019-shap-part-3
2019년 파이콘 한국에서 진행된 튜토리얼 자료입니다. 최재식 교수님께서 설명가능인공지능이란 무엇인가에 대해 발표해주신 Part 1 발표자료입니다. 아래 링크를 통해 행사 관련 정보를 확인하실 수 있습니다.
http://xai.unist.ac.kr/Tutorial/2018/
https://github.com/OpenXAIProject/PyConKorea2019-Tutorials
Part 1: https://www.slideshare.net/OpenXAI/2019-part-1
Part 2: https://www.slideshare.net/OpenXAI/2019-lrp-part-2
Part 3: https://www.slideshare.net/OpenXAI/2019-shap-part-3
2019년 파이콘 한국에서 진행된 튜토리얼 자료입니다. Part 3 내용으로 Model-Agnostic Method인 SHAP에 대한 튜토리얼 발표자료입니다. 아래 링크를 통해 행사 관련 정보를 확인하실 수 있습니다.
http://xai.unist.ac.kr/Tutorial/2018/
https://github.com/OpenXAIProject/PyConKorea2019-Tutorials
Part 1: https://www.slideshare.net/OpenXAI/2019-part-1
Part 2: https://www.slideshare.net/OpenXAI/2019-lrp-part-2
Part 3: https://www.slideshare.net/OpenXAI/2019-shap-part-3
발표자: 이활석(NAVER)
발표일: 2017.11.
최근 딥러닝 연구는 지도학습에서 비지도학습으로 급격히 무게 중심이 옮겨 지고 있습니다. 본 과정에서는 비지도학습의 가장 대표적인 방법인 오토인코더의 모든 것에 대해서 살펴보고자 합니다. 차원 축소관점에서 가장 많이 사용되는Autoencoder와 (AE) 그 변형 들인 Denoising AE, Contractive AE에 대해서 공부할 것이며, 데이터 생성 관점에서 최근 각광 받는 Variational AE와 (VAE) 그 변형 들인 Conditional VAE, Adversarial AE에 대해서 공부할 것입니다. 또한, 오토인코더의 다양한 활용 예시를 살펴봄으로써 현업과의 접점을 찾아보도록 노력할 것입니다.
1. Revisit Deep Neural Networks
2. Manifold Learning
3. Autoencoders
4. Variational Autoencoders
5. Applications
2019년 파이콘 한국에서 진행된 튜토리얼 자료입니다. 최재식 교수님께서 설명가능인공지능이란 무엇인가에 대해 발표해주신 Part 1 발표자료입니다. 아래 링크를 통해 행사 관련 정보를 확인하실 수 있습니다.
http://xai.unist.ac.kr/Tutorial/2018/
https://github.com/OpenXAIProject/PyConKorea2019-Tutorials
Part 1: https://www.slideshare.net/OpenXAI/2019-part-1
Part 2: https://www.slideshare.net/OpenXAI/2019-lrp-part-2
Part 3: https://www.slideshare.net/OpenXAI/2019-shap-part-3
2019년 파이콘 한국에서 진행된 튜토리얼 자료입니다. Part 3 내용으로 Model-Agnostic Method인 SHAP에 대한 튜토리얼 발표자료입니다. 아래 링크를 통해 행사 관련 정보를 확인하실 수 있습니다.
http://xai.unist.ac.kr/Tutorial/2018/
https://github.com/OpenXAIProject/PyConKorea2019-Tutorials
Part 1: https://www.slideshare.net/OpenXAI/2019-part-1
Part 2: https://www.slideshare.net/OpenXAI/2019-lrp-part-2
Part 3: https://www.slideshare.net/OpenXAI/2019-shap-part-3
발표자: 이활석(NAVER)
발표일: 2017.11.
최근 딥러닝 연구는 지도학습에서 비지도학습으로 급격히 무게 중심이 옮겨 지고 있습니다. 본 과정에서는 비지도학습의 가장 대표적인 방법인 오토인코더의 모든 것에 대해서 살펴보고자 합니다. 차원 축소관점에서 가장 많이 사용되는Autoencoder와 (AE) 그 변형 들인 Denoising AE, Contractive AE에 대해서 공부할 것이며, 데이터 생성 관점에서 최근 각광 받는 Variational AE와 (VAE) 그 변형 들인 Conditional VAE, Adversarial AE에 대해서 공부할 것입니다. 또한, 오토인코더의 다양한 활용 예시를 살펴봄으로써 현업과의 접점을 찾아보도록 노력할 것입니다.
1. Revisit Deep Neural Networks
2. Manifold Learning
3. Autoencoders
4. Variational Autoencoders
5. Applications
RoFormer: Enhanced Transformer with Rotary Position Embeddingtaeseon ryu
안녕하세요 딥러닝 논문읽기 모임입니다 오늘 업로드된 논문 리뷰 영상은 올해 발표된, RoFormer: Enhanced Transformer with Rotary Position Embedding 라는 제목의 논문입니다.
해당 논문은 Rotary Position Embedding을 이용하여 Transformer를 개선 시킨 논문입니다. Position embedding은 Self attention의 포지션에 대한 위치를 기억 시키기 위해 사용이 되는 중요한 요소중 하나 인대요, Rotary Position Embedding은 선형대수학 시간때 배우는 회전행렬을 사용하여 위치에 대한 정보를 인코딩 하는 방식으로 대체하여 모델의 성능을 끌어 올렸습니다.
논문에 대한 백그라운드 부터, 수식에 대한 디테일한 리뷰까지,
논문 리뷰를 자연어 처리 진명훈님이 디테일한 논문 리뷰 도와주셨습니다!
Causal Inference : Primer (2019-06-01 잔디콘)Minho Lee
- 2019-06-01 잔디컨퍼런스(잔디콘, @구글캠퍼스) 에서 발표한 자료입니다
- 데이터를 통해 인과관계를 추론하는 방법에 대해서 알아봅니다
- Potential Outcomes, Causal Graphical Models 에 대해 간단히 살펴봅니다
- 슬라이드 내에 오타가 있습니다 ㅠㅠ
- 22p, 28p : Perkson's 가 아니라 Berkson's Paradox 입니다
Progressive Growing of GANs for Improved Quality, Stability, and Variation Re...태엽 김
Progressive Growing of GANs for Improved Quality, Stability, and Variation
Karras, Tero
Aila, Timo
Laine, Samuli
Lehtinen, Jaakko
모두의 연구소 GAN찮아 논문 리뷰 발표 자료
파이썬(Python) 으로 나만의 딥러닝 API 만들기 강좌 (Feat. AutoAI ) Yunho Maeng
#Python #딥러닝 #API #ibmdeveloperday2019
여러분들의 성원에 보답하기 위해 IBM Developer Day에서 발표한 세션 자료를 공개합니다! 그 어느때 보다 발표자료를 요청한 분들이 많아 놀랐습니다~ 그럼 다음에 또 뵙겠습니다 :)
Github https://github.com/yunho0130/devday_python_api
세션 영상 https://youtu.be/Z7bTfnuLXck
DeBERTA : Decoding-Enhanced BERT with Disentangled Attentiontaeseon ryu
오늘 소개해 드릴 논문은 구글의 BERT와 페이스북 현재 메타의 RoBERTa를 기반으로 만들어진 모델입니다. RoBERTa + Disentangled Attention과 enhanced mask decode
두가지의 핵심 기술로 RoBERTa를 더욱 개선 시킨 모델이라고 이해하시면 될 것 같습니다. 추가적으로 Scale Invariant Fine Tuning을 도입하여 RoBERTa를 상당히 많은 테스크에서, NLU 테스크에서는 RoBERTa, BERT이상의 성능을 보여준 논문이기도 합니다.
논문의 자세한 리뷰부터, 백그라운드 지식까지, 자연어처리팀 진명훈님이 도와주셨습니다.
RoFormer: Enhanced Transformer with Rotary Position Embeddingtaeseon ryu
안녕하세요 딥러닝 논문읽기 모임입니다 오늘 업로드된 논문 리뷰 영상은 올해 발표된, RoFormer: Enhanced Transformer with Rotary Position Embedding 라는 제목의 논문입니다.
해당 논문은 Rotary Position Embedding을 이용하여 Transformer를 개선 시킨 논문입니다. Position embedding은 Self attention의 포지션에 대한 위치를 기억 시키기 위해 사용이 되는 중요한 요소중 하나 인대요, Rotary Position Embedding은 선형대수학 시간때 배우는 회전행렬을 사용하여 위치에 대한 정보를 인코딩 하는 방식으로 대체하여 모델의 성능을 끌어 올렸습니다.
논문에 대한 백그라운드 부터, 수식에 대한 디테일한 리뷰까지,
논문 리뷰를 자연어 처리 진명훈님이 디테일한 논문 리뷰 도와주셨습니다!
Causal Inference : Primer (2019-06-01 잔디콘)Minho Lee
- 2019-06-01 잔디컨퍼런스(잔디콘, @구글캠퍼스) 에서 발표한 자료입니다
- 데이터를 통해 인과관계를 추론하는 방법에 대해서 알아봅니다
- Potential Outcomes, Causal Graphical Models 에 대해 간단히 살펴봅니다
- 슬라이드 내에 오타가 있습니다 ㅠㅠ
- 22p, 28p : Perkson's 가 아니라 Berkson's Paradox 입니다
Progressive Growing of GANs for Improved Quality, Stability, and Variation Re...태엽 김
Progressive Growing of GANs for Improved Quality, Stability, and Variation
Karras, Tero
Aila, Timo
Laine, Samuli
Lehtinen, Jaakko
모두의 연구소 GAN찮아 논문 리뷰 발표 자료
파이썬(Python) 으로 나만의 딥러닝 API 만들기 강좌 (Feat. AutoAI ) Yunho Maeng
#Python #딥러닝 #API #ibmdeveloperday2019
여러분들의 성원에 보답하기 위해 IBM Developer Day에서 발표한 세션 자료를 공개합니다! 그 어느때 보다 발표자료를 요청한 분들이 많아 놀랐습니다~ 그럼 다음에 또 뵙겠습니다 :)
Github https://github.com/yunho0130/devday_python_api
세션 영상 https://youtu.be/Z7bTfnuLXck
DeBERTA : Decoding-Enhanced BERT with Disentangled Attentiontaeseon ryu
오늘 소개해 드릴 논문은 구글의 BERT와 페이스북 현재 메타의 RoBERTa를 기반으로 만들어진 모델입니다. RoBERTa + Disentangled Attention과 enhanced mask decode
두가지의 핵심 기술로 RoBERTa를 더욱 개선 시킨 모델이라고 이해하시면 될 것 같습니다. 추가적으로 Scale Invariant Fine Tuning을 도입하여 RoBERTa를 상당히 많은 테스크에서, NLU 테스크에서는 RoBERTa, BERT이상의 성능을 보여준 논문이기도 합니다.
논문의 자세한 리뷰부터, 백그라운드 지식까지, 자연어처리팀 진명훈님이 도와주셨습니다.
2017 tensor flow dev summit (Sequence Models and the RNN API)
작성된 자료로 2017년 2월 22일 오후 8시 부터 Maru180에서
GDG Seoul 에서 주최한 2017 Tensorflow Dev Summit Extended Seou에서
발표를 진행
Sequence Models and the RNN API 정리 내역 공유
Imagination-Augmented Agents for Deep Reinforcement Learning성재 최
I will introduce a paper about I2A architecture made by deepmind. That is about Imagination-Augmented Agents for Deep Reinforcement Learning
This slide were presented at Deep Learning Study group in DAVIAN LAB.
Paper link: https://arxiv.org/abs/1707.06203
LDA : latent Dirichlet Allocation (Fairies NLP Series) - Korean Ver.Adonis Han
*Introduction - Unsupervised Learning (Text-mining or Machine learning?
*Method - Learning Process, Packages
*Explanation Formula
*Case Study of LDA
*Coding with Best LDA Model from Grid search
*Conclusion - insight & Furthur more
*Not edit here
-What is Text-Rank?
-What is Jieba Packages?
네이버에서 진행한 NLP challenge에서 수상 후 발표한 자료입니다.
[대회링크] https://github.com/naver/nlp-challenge
-------------------------------------------------------------------------------
이신의 (lsnfamily02@yonsei.ac.kr)
박장원 (adieujw@gmail.com)
(Papers Review)CNN for sentence classificationMYEONGGYU LEE
review date: 2017/10/10 (by Meyong-Gyu.LEE @Soongsil Univ.)
Korean review of 'Convolutional Neural Networks for Sentence Classification'(EMNLP2014) and 'A Syllable-based Technique for Word Embeddings of Korean Words'(HCLT 2017)
2. 실습 목표
• 다루는 내용:
- LRP기술에 대한 직관적인 설명
- 코드의 전반적인 흐름
• 다루지 않는 내용
-기술을 구현한 상세한 수식의 의미
- CNN, LSTM모델에 대한 상세한 설명
- 자연어 데이터 전처리에 대한 상세한 설명
설명가능인공지능 기술을 구현한 파이썬 코드를
이미지 데이터와 자연어 데이터에 실행하여,
향후 비슷한 실세계 데이터에 응용할 수 있도록 연습하는 시간
6. 입력 데이터 관점에서 분류 결과 뿐만 아니라
결정에 영향을 미치는 구조를 설명
[Alexander Binder et al, Layer-wise Relevance Propagation for Neural Networks with Local Renormalization Layers, ICANN, 2016]
8. LRP 연구팀에서 발전시키고 있는 기술들과 비교하면..
https://github.com/albermax/innvestigate
9. 오늘 실습에서 구현할 SA, LRP만 한번 더 확인
Sensitivity Anlysis
Layer-wise Relevance Propagation (Simplified)
https://www.sciencedirect.com/science/article/pii/S1051200417302385
타켓클래스에 대한
예측함수
입력값
전단계에서
구한 관련성
전단계 뉴런의 활성화 함수 a와 가중치w의 곱
출력에서 전단계까지의 모든 뉴런의 활성화 함수 a와 가중치w의 곱
10. - Related work
explaining a neural network decision by decomposing of function value onto input variables in an
amount that matches the respective relevance of these input variables to the function value.
Notation
• 𝑥 = 𝑥 𝑝 ; 𝑎 𝑠𝑒𝑡 𝑜𝑓 𝑝𝑖𝑥𝑒𝑙 𝑣𝑎𝑙𝑢𝑒𝑠
• 𝑓: ℝ 𝑑
→ ℝ+
; 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑒 − 𝑣𝑎𝑙𝑢𝑒𝑑 𝑓𝑢𝑛𝑐𝑡𝑖𝑜𝑛
• 𝑓 𝑥 = 0 ∶ 𝑎𝑏𝑠𝑒𝑛𝑐𝑒 𝑜𝑓 𝑐𝑒𝑟𝑡𝑎𝑖𝑛 𝑡𝑦𝑝𝑒 𝑜𝑓 𝑜𝑏𝑗𝑒𝑐𝑡𝑠
• 𝑓 𝑥 = 1 ∶ 𝑝𝑟𝑒𝑠𝑒𝑛𝑐𝑒 𝑜𝑓 𝑐𝑒𝑟𝑡𝑎𝑖𝑛 𝑡𝑦𝑝𝑒 𝑜𝑓 𝑜𝑏𝑗𝑒𝑐𝑡𝑠
• 𝑅 𝑃 𝑥 : 𝑟𝑒𝑙𝑒𝑣𝑎𝑛𝑐𝑒 𝑠𝑐𝑜𝑟𝑒 𝑜𝑓 𝑥 𝑝
• R 𝑥 = 𝑅 𝑃 𝑥 ∶ heatmap
Explaining Nonlinear Classification Decisions with Deep Taylor Decomposition
Pixel-wise decomposition
Pixel-wise decomposition of a function
Ginkyeng LEE Sailab
11. Explaining Nonlinear Classification Decisions with Deep Taylor Decomposition
In practice, it is not possible to specify explicitly all properties that a heatmapping technique should satisfy.
F(x1,x2,…,xd)=0.85
0.1
0.85
0.05
𝑥 = 𝑥 𝑝
𝑓: ℝ 𝑑 → ℝ+
R 𝑥 = 𝑅 𝑃 𝑥
𝑅 𝑃 𝑥 =?
A heatmapping should satisfy
properties that we define below:
𝑅 𝑃 𝑥 =
1
𝑑
⋅ 𝑓 𝑥
- Related work
Pixel-wise decomposition of a function
Ginkyeng LEE Sailab
12. (2) Taylor decomposition
• General case of arbitrary differentiable functions f(x)
• Decomposition method based on the Taylor expansion of the function at some well-chosen root point 𝒙
• The first-order Taylor expansion of f(x) is given by
• Possibly NOT consistent!
• Satisfying Definition 2.
• Possible presence of non-zero higher order
terms not satisfying Definition1
Explaining Nonlinear Classification Decisions with Deep Taylor Decomposition
2 meaningful examples of decompositions that comply with the definition mentioned.
- Related work
Pixel-wise decomposition of a function
f(𝑥)=0
Ginkyeng LEE Sailab
13. - Application to one-layer networks
Explaining Nonlinear Classification Decisions with Deep Taylor Decomposition
1.Express the relevance
for the top layer in terms
of lower-layer neurons as:
(mapping function)
2. Redistribute 𝑅 𝑘 onto neurons
𝑥𝑗 using single Taylor
decomposition.
We need to choose root points of this function.
𝑗
𝑥𝑗 = 0
• The root points should be admissible.
• the root point must be positive.
The only point that is both (root) + (admissible) is
𝑥𝑗 = 0
1.Express 𝑅𝑗 in
terms of 𝑥𝑖
(mapping
function)
𝑅𝑗 = 𝑥𝑗
2. Redistribute 𝑅𝑗 onto neurons 𝑥𝑖
using single Taylor decomposition.
How to choose root point?
Various methods for choosing a root point
That consider the diversity of possible input domains
Ginkyeng LEE Sailab
14. - Application to deep networks
Explaining Nonlinear Classification Decisions with Deep Taylor Decomposition
The mapping may be unknown. In order to redistribute the relevance from higher to lower layers, One needs to make
this mapping explicit. For this purpose, the paper introduce the concept of relevance model.
• Relevance model : function that maps a set of neuron activations at a given layer to the relevance of a neuron in a
higher layer.
+ Upper-layer relevance is not only determined by input neuron activations , but also by high-level information that have
been formed in the top layers of the network.
Ginkyeng LEE Sailab
16. 구글 드라이브에서 코랩으로 CNN_example.ipynb파일 연결
만약 ‘연결 앱’에 코랩이 없다면 ‘더 많은 앱 연결하기’를 이용
17. 관련 내용을 좀더 자세하게 알고 싶다면
2. LRP 연구팀이 튜토리얼, 논문 등을 업로드하는 공식 홈페이지
http://heatmapping.org/
3. 김범수님이 한줄한줄 설명하며 텐서플로우로 직접 구현한 저장소
https://github.com/1202kbs/Understanding-NN
를 추천드립니다.
1. Innvestigate의 전체 코드와 다양한 예제 있는 공식 저장소
https://github.com/albermax/innvestigate
26. [Explaining Recurrent Neural Network Predictions in Sentiment Analysis, Leila Arras, Grégoire Montavon, Klaus-Robert Müller, Wojciech Samek, 2017]
LRP는 CNN 계열 뿐만 아니라 다른 신경망에도 적용이 가능하기에
RNN, LSTM도 구현가능하고 관련 논문과 코드도 공개되어 있음
https://github.com/ArrasL/LRP_for_LSTM/blob/master/code/LSTM/LSTM_bidi.py
27. 공개된 코드는
학습된 가중치를 불러와 LRP에 적용해 커스터마이징이 어렵고,
Bi-LSTM으로 구현되어 코드가 굉장히 복잡하여
2. 한국어데이터 전처리 과정
에 기반하여 한국어 자연어 처리가 가능하게 커스터마이징함
1. 원본 코드
https://cyc1am3n.github.io/2018/11/10/classifying_korean_movie_review.html
https://github.com/ArrasL/LRP_for_LSTM/blob/master/code/LSTM/LSTM_bidi.py
28. 구글 드라이브에서 코랩으로 LSTM_example.ipynb파일 연결
만약 ‘연결 앱’에 코랩이 없다면 ‘더 많은 앱 연결하기’를 이용
29. 1. 한국어 문장 데이터를
2. 형태소 분석을 통해 단어로 나누고
3. 나눠진 단어를 많이 등장하는 순서로 정렬해 단어 사전을 만든 후
4. 문장 데이터를 단어의 인덱스로 변경하여 정수화
5. 제로패딩으로 모든 문장 길이를 맞추고
6. 워드 임베딩을 통해 좀더 밀집하게 표현
시간관계상 저장된
파일을 불러옴
전처리 과정
케라스 모듈 이용