Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
정서
Uploaded by
정훈 서
PDF, PPTX
4,261 views
Understanding deep learning requires rethinking generalization (2017) 1/2
Understanding deep learning requires rethinking generalization (2017) 1/2
Data & Analytics
◦
Read more
17
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 51
2
/ 51
3
/ 51
4
/ 51
5
/ 51
6
/ 51
7
/ 51
8
/ 51
9
/ 51
10
/ 51
11
/ 51
12
/ 51
13
/ 51
14
/ 51
15
/ 51
16
/ 51
17
/ 51
18
/ 51
19
/ 51
20
/ 51
21
/ 51
22
/ 51
23
/ 51
24
/ 51
25
/ 51
26
/ 51
27
/ 51
28
/ 51
29
/ 51
30
/ 51
31
/ 51
32
/ 51
33
/ 51
34
/ 51
35
/ 51
36
/ 51
37
/ 51
38
/ 51
39
/ 51
40
/ 51
41
/ 51
42
/ 51
43
/ 51
44
/ 51
45
/ 51
46
/ 51
47
/ 51
48
/ 51
49
/ 51
50
/ 51
51
/ 51
More Related Content
PDF
[PR12] understanding deep learning requires rethinking generalization
by
JaeJun Yoo
PDF
Explainability and bias in AI
by
Bill Liu
PDF
가깝고도 먼 Trpo
by
Woong won Lee
PPTX
Lecture_16_Self-supervised_Learning.pptx
by
Karimdabbabi
PDF
MobileNet V3
by
Wonbeom Jang
PPTX
쫄지말자딥러닝2 - CNN RNN 포함버전
by
Modulabs
PPTX
인공지능, 기계학습 그리고 딥러닝
by
Jinwon Lee
PPT
Support Vector Machines
by
nextlib
[PR12] understanding deep learning requires rethinking generalization
by
JaeJun Yoo
Explainability and bias in AI
by
Bill Liu
가깝고도 먼 Trpo
by
Woong won Lee
Lecture_16_Self-supervised_Learning.pptx
by
Karimdabbabi
MobileNet V3
by
Wonbeom Jang
쫄지말자딥러닝2 - CNN RNN 포함버전
by
Modulabs
인공지능, 기계학습 그리고 딥러닝
by
Jinwon Lee
Support Vector Machines
by
nextlib
What's hot
PPTX
What Is Deep Learning? | Introduction to Deep Learning | Deep Learning Tutori...
by
Simplilearn
PDF
(2017/06)Practical points of deep learning for medical imaging
by
Kyuhwan Jung
PPTX
Backpropagation And Gradient Descent In Neural Networks | Neural Network Tuto...
by
Simplilearn
PDF
Uncertainty Quantification in AI
by
Florian Wilhelm
PDF
Support Vector Machines for Classification
by
Prakash Pimpale
PPTX
Destek vektör makineleri
by
ozgur_dolgun
PDF
Single Image Super Resolution Overview
by
LEE HOSEONG
PPTX
Control as Inference.pptx
by
ssuserbd1647
PPTX
Clustering Analysis DBSCAN & SOM
by
Ömer Can Koç
PDF
Data Science - Part V - Decision Trees & Random Forests
by
Derek Kane
PDF
개념 이해가 쉬운 Variational Autoencoder (VAE)
by
jaypi Ko
PPTX
Evolutionary Computing
by
Madhawa Gunasekara
PPTX
Responsible AI
by
Neo4j
PPTX
AlexNet.pptx
by
SushilKulkarniDr
PDF
Introduction to Autoencoders
by
Yan Xu
PPTX
Representation Learning & Generative Modeling with Variational Autoencoder(VA...
by
changedaeoh
PPTX
Xgboost: A Scalable Tree Boosting System - Explained
by
Simon Lia-Jonassen
PPTX
Brain Tumor Segmentation using Enhanced U-Net Model with Empirical Analysis
by
MD Abdullah Al Nasim
PDF
Introduction to Machine Learning Classifiers
by
Functional Imperative
PPT
★Mean shift a_robust_approach_to_feature_space_analysis
by
irisshicat
What Is Deep Learning? | Introduction to Deep Learning | Deep Learning Tutori...
by
Simplilearn
(2017/06)Practical points of deep learning for medical imaging
by
Kyuhwan Jung
Backpropagation And Gradient Descent In Neural Networks | Neural Network Tuto...
by
Simplilearn
Uncertainty Quantification in AI
by
Florian Wilhelm
Support Vector Machines for Classification
by
Prakash Pimpale
Destek vektör makineleri
by
ozgur_dolgun
Single Image Super Resolution Overview
by
LEE HOSEONG
Control as Inference.pptx
by
ssuserbd1647
Clustering Analysis DBSCAN & SOM
by
Ömer Can Koç
Data Science - Part V - Decision Trees & Random Forests
by
Derek Kane
개념 이해가 쉬운 Variational Autoencoder (VAE)
by
jaypi Ko
Evolutionary Computing
by
Madhawa Gunasekara
Responsible AI
by
Neo4j
AlexNet.pptx
by
SushilKulkarniDr
Introduction to Autoencoders
by
Yan Xu
Representation Learning & Generative Modeling with Variational Autoencoder(VA...
by
changedaeoh
Xgboost: A Scalable Tree Boosting System - Explained
by
Simon Lia-Jonassen
Brain Tumor Segmentation using Enhanced U-Net Model with Empirical Analysis
by
MD Abdullah Al Nasim
Introduction to Machine Learning Classifiers
by
Functional Imperative
★Mean shift a_robust_approach_to_feature_space_analysis
by
irisshicat
Viewers also liked
PPTX
Introduction For seq2seq(sequence to sequence) and RNN
by
Hye-min Ahn
PPTX
Squeezing Deep Learning Into Mobile Phones
by
Anirudh Koul
PPTX
머신러닝의 자연어 처리기술(I)
by
홍배 김
PDF
The Marketer's Guide To Customer Interviews
by
Good Funnel
PPTX
Visualizing data using t-SNE
by
홍배 김
PDF
Universal Approximation Theorem
by
Jamie Seol
PDF
Design in Tech Report 2017
by
John Maeda
PDF
Explaining and harnessing adversarial examples (2015)
by
정훈 서
PDF
Understanding deep learning requires rethinking generalization (2017) 2 2(2)
by
정훈 서
PDF
Paper Reading : Learning from simulated and unsupervised images through adver...
by
정훈 서
PDF
Convocatoria a asamblea del 28/03/2017
by
Fopediuc - Fondo Pensiones UC
PDF
Basics of computational assessment for COPD: IWPFI 2017
by
Namkug Kim
PDF
Volatile Memory: Behavioral Game Theory in Defensive Security
by
Kelly Shortridge
PPTX
ELSA France "Teaching is us!"
by
Adrian Scarlett
PPT
sungmin slide
by
sungminlee
PDF
Paper Reading : Enriching word vectors with subword information(2016)
by
정훈 서
PPTX
Image segmentation hj_cho
by
Hyungjoo Cho
PDF
Alex Smola at AI Frontiers: Scalable Deep Learning Using MXNet
by
AI Frontiers
PDF
The Be-All, End-All List of Small Business Tax Deductions
by
Wagepoint
PDF
Web crawl with Elixir
by
이재철
Introduction For seq2seq(sequence to sequence) and RNN
by
Hye-min Ahn
Squeezing Deep Learning Into Mobile Phones
by
Anirudh Koul
머신러닝의 자연어 처리기술(I)
by
홍배 김
The Marketer's Guide To Customer Interviews
by
Good Funnel
Visualizing data using t-SNE
by
홍배 김
Universal Approximation Theorem
by
Jamie Seol
Design in Tech Report 2017
by
John Maeda
Explaining and harnessing adversarial examples (2015)
by
정훈 서
Understanding deep learning requires rethinking generalization (2017) 2 2(2)
by
정훈 서
Paper Reading : Learning from simulated and unsupervised images through adver...
by
정훈 서
Convocatoria a asamblea del 28/03/2017
by
Fopediuc - Fondo Pensiones UC
Basics of computational assessment for COPD: IWPFI 2017
by
Namkug Kim
Volatile Memory: Behavioral Game Theory in Defensive Security
by
Kelly Shortridge
ELSA France "Teaching is us!"
by
Adrian Scarlett
sungmin slide
by
sungminlee
Paper Reading : Enriching word vectors with subword information(2016)
by
정훈 서
Image segmentation hj_cho
by
Hyungjoo Cho
Alex Smola at AI Frontiers: Scalable Deep Learning Using MXNet
by
AI Frontiers
The Be-All, End-All List of Small Business Tax Deductions
by
Wagepoint
Web crawl with Elixir
by
이재철
Similar to Understanding deep learning requires rethinking generalization (2017) 1/2
PDF
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
by
Taehoon Kim
PPTX
Deep Learning for AI (1)
by
Dongheon Lee
PPTX
Progressive Growing of GANs for Improved Quality, Stability, and Variation Re...
by
태엽 김
PDF
Coursera Machine Learning (by Andrew Ng)_강의정리
by
SANG WON PARK
PDF
Siamese neural networks for one shot image recognition paper explained
by
taeseon ryu
PPTX
머신러닝 프로젝트 - LSTM을 이용한 주가(KODEX200) 예측
by
PARK SUNGMIN
PDF
"How does batch normalization help optimization" Paper Review
by
LEE HOSEONG
PDF
221123 지승현 Uniform convergence may be unable to explain generalization in dee...
by
ssuserf03c031
PDF
OCGAN:one class novelty detection using gans with constrained latent represen...
by
Seowoo Han
PPTX
Ml for 정형데이터
by
JEEHYUN PAIK
PPTX
Dense sparse-dense training for dnn and Other Models
by
Dong Heon Cho
PDF
carrier of_tricks_for_image_classification
by
LEE HOSEONG
PPTX
Deep neural networks for You-Tube recommendations
by
seungwoo kim
PPTX
Deep learning overview
by
강민국 강민국
PPTX
13-DfdasdfsafdsafdasfdasfdsadfasfdsafNN.pptx
by
HinPhmXun1
PDF
180212 normalization hyu_dake
by
DongGyun Hong
PPTX
Image net classification with deep convolutional neural networks
by
Korea, Sejong University.
PPTX
2.supervised learning(epoch#2)-3
by
Haesun Park
PDF
From maching learning to deep learning
by
Yongdae Kim
PDF
PR-313 Training BatchNorm and Only BatchNorm: On the Expressive Power of Rand...
by
Sunghoon Joo
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
by
Taehoon Kim
Deep Learning for AI (1)
by
Dongheon Lee
Progressive Growing of GANs for Improved Quality, Stability, and Variation Re...
by
태엽 김
Coursera Machine Learning (by Andrew Ng)_강의정리
by
SANG WON PARK
Siamese neural networks for one shot image recognition paper explained
by
taeseon ryu
머신러닝 프로젝트 - LSTM을 이용한 주가(KODEX200) 예측
by
PARK SUNGMIN
"How does batch normalization help optimization" Paper Review
by
LEE HOSEONG
221123 지승현 Uniform convergence may be unable to explain generalization in dee...
by
ssuserf03c031
OCGAN:one class novelty detection using gans with constrained latent represen...
by
Seowoo Han
Ml for 정형데이터
by
JEEHYUN PAIK
Dense sparse-dense training for dnn and Other Models
by
Dong Heon Cho
carrier of_tricks_for_image_classification
by
LEE HOSEONG
Deep neural networks for You-Tube recommendations
by
seungwoo kim
Deep learning overview
by
강민국 강민국
13-DfdasdfsafdsafdasfdasfdsadfasfdsafNN.pptx
by
HinPhmXun1
180212 normalization hyu_dake
by
DongGyun Hong
Image net classification with deep convolutional neural networks
by
Korea, Sejong University.
2.supervised learning(epoch#2)-3
by
Haesun Park
From maching learning to deep learning
by
Yongdae Kim
PR-313 Training BatchNorm and Only BatchNorm: On the Expressive Power of Rand...
by
Sunghoon Joo
Understanding deep learning requires rethinking generalization (2017) 1/2
1.
Understanding deep learning requires
rethinking generalization (2017) - 1/2 Chiyuan Zhang, Samy Bengio, Moritz Hardt, Benjamin Recht, Oriol Vinyals 170322 @mikibear_ 논문 정리
2.
https://arxiv.org/abs/1611.03530
3.
질문 1, "딥러닝 알고리즘은
진정으로 일반화를 하고 있는가?"
4.
이 질문은, 모델의 '일반화를
잘 하는 정도'를 어떻게 측정할 수 있는가하는 문제와 밀접하게 연관되어 있습니다.
5.
그리고 우리는 일반적으로 사용하는
답을 알죠. 바로 Generalization Error
6.
그리고 우리는 일반적으로 사용하는
답을 알죠. 바로 Generalization Error = |training error - test error|
7.
당연히 Generalization error가
작을 수록, 모델은 일반화를 잘하고 있다고 말할 수 있을 것입니다.
8.
논문엔 없는 내용이지만,
다음과 같은 상황을 상정해봅시다. 개와 고양이를 구분하는 학습을 하는
9.
논문엔 없는 내용이지만,
다음과 같은 상황을 상정해봅시다. 개와 고양이를 구분하는 학습을 하는 뉴럴넷 모델과
10.
논문엔 없는 내용이지만,
다음과 같은 상황을 상정해봅시다. 개와 고양이를 구분하는 학습을 하는 뉴럴넷 모델과 생전 개와 고양이라는 개념을 처음 접하는 아기
11.
이건 개야! 이건 고양이야!
12.
대답 잘 하겠죠? "이건
뭐야?" 개!
13.
"이건 뭐야?" 개! 물론 우리의
VGG, Inception, AlexNet같은 것도 잘하죠
14.
여기까지는 아무 문제 없습니다. 그럼
다음 상황을 봅시다.
15.
개, 고양이 사진에
붙은 라벨을 전부 떼고, 라벨을 랜덤 배정합니다. 그리고 가르칩시다.
16.
이건 개야! 이건 고양이야! 이건 고양이야! 이건
고양이야! 이건 개야!
17.
??? 당연히 혼돈스럽습니다.
18.
같은 질문을 해봅시다. "이건
뭐야?" 몰라...
19.
물론 우리 뉴럴넷도
모를 겁니다. "이건 뭐야?" 몰라...
20.
여기까지도 아무 문제 없습니다. 문제는
학습했던 데이터를 다시 보여줄 때 발생합니다.
21.
어떻게 아기가 대답해야, 아기가
일반화를 잘한다고 할 수 있을까요? "이건 뭐야?" '고양이'라고 알려줬던 사진
22.
정답은 "몰라..."입니다.
23.
라벨을 랜덤 배정하면서 이미지와
라벨의 관계가 없어졌기 때문에 이미지를 보고 라벨을 예측한다는 것이 말이 안되기 때문입니다.
24.
만약 이렇다면 어떤
의미일까요? "이건 뭐야?" '고양이'라고 알려줬던 사진 고양이 !
25.
만약 아기가 '고양이'라고
답한다면, 아기는 고양이라는 개념을 일반화한 것이 아니라, 이미지를 보고 라벨을 암기한 것입니다
26.
논문에서 제기하고 있는 문제점이
이것입니다. 딥러닝 모델은 이와 같은 상황에서 암기를 합니다.
27.
요렇게 행동한다는 뜻이죠. "이건
뭐야?" '고양이'라고 알려줬던 사진 고양이 ! 내가 암 ㅇㅇ 내가 봤음
28.
그래서 실험에서 CIFAR10
데이터셋을 활용해 (라벨이 10개) ('진짜 이미지' - '완전한 랜덤 라벨링') 쌍을 이용해 몇몇 모델을 트레이닝시킵니다. 그 실험만 진행한 것은 아니지만, 결론은 같으니 생략하겠습니다.
29.
결과
30.
결과 Training error는 0으로
가고, Testing error는 0.9로 갑니다.
31.
Training error가 0이므로, Generalization
error = Testing error 즉, 모든 경우에 대해서 좀 큰 뉴럴넷은 0.9의 Generalization error를 가지게 됩니다.
32.
Training error가 0이므로, Generalization
error = Testing error 즉, 모든 경우에 대해서 좀 큰 뉴럴넷은 0.9의 Generalization error를 가지게 됩니다. 좀… 많이 크네요...
33.
논문에서는 본 실험을 다음과
같이 요약하고 있습니다.
34.
논문에서는 본 실험을 다음과
같이 요약하고 있습니다. 와아 대단해 뉴럴넷은 암기를 잘하는 프렌즈구나
35.
'음… 그래도 요즘에
일반화 잘한다고 알려진 방법 있잖아요. Data augmentation이나 Dropout이나 Weight decay나 BatchNorm이나 Early stopping이나… 그런 것들 걸면 좀 낫지 않을까요?'
36.
질문 2, "그런 것들은
좀 일반화를 더 잘 시키는데 도움이 될까?"
37.
Dropout이나 weight decay를
걸어도 이미지넷 데이터에서도 잘 '외웁'니다 (...)
38.
오, 근데 weight
decay는 좀 일반화를 시키나봅니다. 랜덤 라벨에서 train data에 대한 정확도가 줄었네요
39.
'그럼 그냥 기존의
모델이나 논문에서 걸었던 data augmentation이나 weight decay나 batch norm 같은 걸 빼면 어떨까...?'
40.
'그럼 그냥 기존의
모델이나 논문에서 걸었던 data augmentation이나 weight decay나 batch norm 같은 걸 빼면 어떨까...? 기존에 해왔던 것이 전부 사기일리는 없으니까… 랜덤 라벨링 안 한 정상적인 데이터에선 저런 기법들이 돌아가긴 하잖아'
43.
네, 기법의 조합이나
구조에 따라서 달라지긴 하지만 잘 작동합니다. 특히, batch norm이 있고 없고는 inception에서 굉장한 차이가 있습니다.
44.
논문에서는 세부적으로 좀
많이 구구절절 다루는데, 생략하도록 하겠습니다.
45.
'아니, 그래서 일반화를
위한 regularizer들이 일반화를 한다는 거에요, 안한다는 거에요?'
47.
'좀 작동하긴 하는데,
그런 regularizer가 일반화의 결정적인 이유는 아니니까… 일반화에 대해서 좀 재고해볼 필요가 있지 않을까요?'
48.
'좀 작동하긴 하는데,
그런 regularizer가 일반화의 결정적인 이유는 아니니까… 일반화에 대해서 좀 재고해볼 필요가 있지 않을까요?' 결론이 왠지 미적지근...
49.
질문 3, "딥러닝 모델이
암기를 한다고 했는데, 그럼 그 Capacity가 어떻게 되나?" 질문 4, "SGD도 딥러닝 트레이닝 중 일반화를 시키는데 도움을 준다고 알려져 있는데, 이건 어떤가?"
50.
추후에… (사실 뒤에 내용들이
더 멋집니다)
51.
틀린 내용이 있거나
중요한데 빠져있는 경우 알려주세요! @mikibear
Download