SlideShare a Scribd company logo
1 of 154
2018. 04. 12.
인공지능을 위한
딥러닝 프로그래밍
Machine Learning
의용전자연구실
박사과정 이동헌
Week3
Machine Learning
(18. 04. 12. 13:00-17:00)
Week4
Deep Learning
(18. 05. 03. 13:00-17:00)
Week5
AI in Medicine
(18. 05. 10. 13:00-17:00)
• Introduction to AI
• Machine Learning
Overview
• Image Classification
Pipeline
• Loss functions and
Optimization
• Neural Network and
Backpropagation
• Training Neural
Networks
• Convolutional Neural
Networks (CNNs)
• CNNs Models
• Applications of CNNs
• Recurrent Neural
Networks (RNNs)
• Deep Learning in
Practice
• Applications in Medicine
 Introduction to AI
 Machine Learning Overview
 Image Classification Pipeline
 Loss functions and Optimization
출처: 구글 이미지
7
LeNet
1998년
Since 2006년
• 스탠포드대학과 구글이 16,000개의 컴퓨터 프로세스와 10억개 이상의 뉴럴네트워크
를 이용해서 유튜브 내 천만개 비디오 중에서 고양이를 인식.
• 학습데이터가 없은 비지도학습(즉 컴퓨터에게 “이러한 이미지는 고양이다”라고
가르쳐주지 않음).
• 그 결과 인간의 얼굴은 81.7%, 인간의 몸 76.7%, 고양이는 74.8%의 정확도로 인식함.
2012년 6월
http://image-net.org/
NAVER speech recognition
20% 개선
100%
10%
4%
1%
1990 2000 2010
Using Deep Learning
According to Microsoft’s
speech group:
GMM
WorderrorrateonSwitchboard
Speech Recognition (Acoustic Modeling)
17
• 공개 소프트웨어 (AI)
• 공개 데이터
• 공개 논문
• 공개 경진대회
• 공동 프로젝트
• Open AI Promotion Community
AI 기술 진보는 어떻게 오는가?
18
20
“인공지능이 가장 중요한 세상(AI-first world)에서
우리는 모든 제품을 다시 생각하고 있다. (we are rethinking all our
products)”
순다르 피차이(구글 최고경영자) 2017.05.18
21
22
23
AI in Healthcare
출처: 구글 이미지
24
25
병원명 AI 시스템 개발 내용
Lunit과 Chest X-ray 폐암 조기진단
시스템 개발 협력
OBS Korea와 치과용 인공지능 시스템 개발 협력
AI 벤처기업과 심혈관 질환
조기 진단 시스템 개발 협력
VUNO와 폐암 CT 영상 분석 시스템 개발 협력
삼성 메디슨과 초음파를 이용한 유방암
조기 진단 시스템 개발 협력
인공지능 암 치료 개발 사업 추진 예정
암 진단을 위한 IBM Watson 도입
지능형 의료 안내 로봇 개발
국내 주요 병원 AI 기술 개발 현황 (2017년 기준)
서울의대 예과 ‘의학 입문’ 수업 중 (2017년 11월)
대한영상의학회 춘계학술대회 설문조사 결과 (2017년)
대한영상의학회 춘계학술대회 설문조사 결과 (2017년)
AI will replace radiologists?
의사의 탈숙련화(Deskilling)?
Reason 1. Humans will always maintain ultimate responsibility.
Reason 2. Radiologists don’t just look at images.
Reason 3. Productivity gains will drive demand.
Why AI will not replace radiologists?
Doctors?
Doctors
34
35
우승팀의 딥러닝 모델 개요 (Andrew back, Harvard Univ.)
36
https://www.snuh.org/main.do
37
출처: 구글 이미지
Artificial Intelligence
Machine Learning
ANN
PCA
SVM
Decision
Tree
Deep
Learn-
ing
39
Q. What is learning?
• 인간이 연속된 경험을 통해 배워가는 일련의 과정 - David Kolb
• 기억(Memorization)하고 적응(Adaptation)하고, 이를 일반화(Generalization)하는 것
Q. Why machines need to learn?
• 모든 것을 프로그래밍 할 수 없다.
• 모든 상황을 커버할 수 있는 룰을 만드는 것은 불가능하다.
• 알고리즘으로 정의하기 어려운 일들이 있다.
40
41
42
머신러닝 과정
1. 데이터 수집 및 전처리
2. 특징 선택 및 추출
3. 알고리즘 선택
4. 학습
5. 평가
43
Task : Classification
농어
연어
https://www.pinterest.co.uk/pin/53832158029479772/
https://www.pinterest.co.uk/pin/53832158029479772/
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
48
1. 데이터 수집 및 전처리
출처: 구글 이미지
49
1. 데이터 수집 및 전처리
출처: 구글 이미지
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
52
2. 특징 선택 및 추출
53
2. 특징 선택 및 추출
• 특징(Feature) 종류?
• 특징(Feature) 갯수?
Length
Lightness
Width
Number and shape of fins
Position of the mouth
…
생선의 특징 =
54
2. 특징 선택 및 추출
’길이’ 특징
55
2. 특징 선택 및 추출
’밝기’ 특징
56
2. 특징 선택 및 추출
’길이 & 밝기’ 특징
57
• 전 세계 주요 국가의 100만명 당 연간 초콜릿 소비량과 노벨상 수상자 수와의 상
관관계 분석에 대한 결과를 발표 (NEJM, 2012).
• 그 결과는 매우 강한 상관관계가 있음 (r=0.791; 통상 상관계수 r값이 0.7 이상이
면 매우 강한 상관관계를 나타냄).
• 이 상관계수는 노벨위원회가 있는 스웨덴을 제외할 경우 0.862로 더 높아짐.
2. 특징 선택 및 추출 - 종류
출처: 구글 이미지
59
2. 특징 선택 및 추출 - 크기
e.g.
• BMI = 키, 몸무게 (2D)
• 건강상태 = 혈압, 나이, BMI (5D)
60
2. 특징 선택 및 추출
• More features often makes better performance.
• Too many features often causes poor generalization capability.
→ ‘Curse of Dimensionality’
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
63
3. 알고리즘 선택
Classification3. 알고리즘 선택
Regression
3. 알고리즘 선택
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
Continuous value
Categorical value
(Binary, One-hot)
e.g. Least Square Method e.g. Cross-entropy
 Cost function (a.k.a Loss function)
• 학습의 기준이 되는 함수를 정의
• Cost function이 최소화하는 방향으로 학습을 진행 (파라미터 변경)
4. 학습
4. 학습
 Hyperparameters (모델 학습을 위한 파라미터)
• Learning rate
• Regularization constant
• Loss function
• Weight Initialization strategy
• Number of epochs
• Batch size
• (Number of layers)
• (Nodes in hidden layer)
• (Activation functions)
…
 Optimization (파라미터 최적화)
4. 학습
71
4. 학습
72
Regressor
Regression
Regressor
4. 학습
73
4. 학습
일반화 능력
훈련에 참여하지 않은 데이터에도 좋은 성능을 보임
4. 학습
 Bias: 학습한 모델과 Real World 모델과의 불일치 정도
→ Bias를 줄이는 방법: 더 복잡한 모델을 선택
 Variance: 학습한 모델에 대해서 데이터셋이 바뀔 때 성능의 변화량
→ Variance를 줄이는 방법: 더 많은 데이터를 수집
75
4. 학습
 Regularization
• Weight Decaying
• Dropout
 Cross-Validation
• Leave-one-out
• K-fold
76
Weight Decaying4. 학습
Model:
77
Weight Decaying4. 학습
Model:
Cost function:
78
Weight Decaying4. 학습
Model:
Cost function:
Cost function(일반식):
79
Weight Decaying4. 학습
Cost function(일반식):
4. 학습
Cross-Validation
Cross-Validation
4. 학습
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
1.데이터 수집 및 전처리
2.특징 선택 및 추출
3.알고리즘 선택
4.학습
5.평가
84
5. 평가
• Trained Model 을 Test dataset에 적용
Confusion Matrix
• Accuracy = (TP + TN) / (TP + TN + FP + FN)
• Sensitivity = TP / (FN + TP)
• Specificity = TN / (TN + FP)
• False positive rate = FP / (TN + FP)
• Precision = TP / (TP + FP)
85
5. 평가
Receiver Operating Characteristic (ROC) Curve
88
89
Challenges in Visual Recognition
91
92
93
• K = 3 ?
• K = 5 ?
x
1. 데이터 수집 및 전처리
• CIFAR-10
2. 특징 선택 및 추출
• 원본 이미지 그대로
3. 알고리즘 선택
• NN Classifier
• K-NN Classifier
Summary
4. 학습
• Cross Validation
5. 평가
• N/A
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Loss functions
Optimization
Strategy #1: Random Search
Optimization
Optimization
Strategy #2: Follow the slope
In 1-dimension,
In multi-dimension, gradient is the vector of (partial derivatives)
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
Optimization
1. 데이터 수집 및 전처리
• CIFAR-10
2. 특징 선택 및 추출
• 원본 이미지 그대로
3. 알고리즘 선택
• NN Classifier
• K-NN Classifier
• Linear Classifier
Summary
4. 학습
• Cross Validation
• Loss Function
• Optimization
 Gradient Descent
 Mini-batch Gradient Descent
5. 평가
• N/A
Feature Engineering
1. (p6) NVIDIA, “What’s the Difference Between Artificial Intelligence, Machine Learning, and Deep Learning?”,
https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/
2. (p8, p15, p18) Andrew L. Beam, machine learning and medicine, Deep Learning 101 - Part 1: History and Background,
https://beamandrew.github.io/deeplearning/2017/02/23/deep_learning_101_part1.html
3. (p9) Yann’s Homepage, http://yann.lecun.com/exdb/lenet/
4. (p11) The New York Times, “How Many Computers to Identify a Cat? 16,000”,
https://www.nytimes.com/2012/06/26/technology/in-a-big-network-of-computers-evidence-of-machine-
learning.html?_r=1&amp
5. (p12-14, p34-36, p87-110, p112-145, p149) Standford, CS231n, http://cs231n.stanford.edu/
6. (p16) Machine Learning Tutorial 2015 (NAVER)
7. (p17) AIRI 400, “인공지능의 개요, 가치, 그리고 한계” (김진형 박사)
8. (p19) CBINSIGHTS, “From Virtual Nurses To Drug Discovery: 106 Artificial Intelligence Startups In Healthcare”,
https://www.cbinsights.com/research/artificial-intelligence-startups-healthcare/
9. (p20) NEWSIS 기사, 구글 CEO "AI시대 맞춰 모든 제품 다시 생각 중“,
http://www.newsis.com/view/?id=NISX20170518_0014902945
10. (p21)Analytic Indai, “Infographic- Artificial Narrow Intelligence Vs. Artificial General Intelligence”,
https://analyticsindiamag.com/artificial-narrow-vs-artificial-general/
11. (p22) WEF expert panel interviews, press release, company website: A.T Kearney analysis
12. (p24) Machine Learning for Healthcare, MIT. Spring 2017, https://mlhc17mit.github.io/
13. (p25) Medium, AI in Healthcare: Industry Landscape, https://techburst.io/ai-in-healthcare-industry-landscape-
c433829b320c
14. (p27) 최윤섭의 Healthcare Innovation, “인공지능의 시대, 의사의 새로운 역할은”,
http://www.yoonsupchoi.com/2018/01/03/ai-medicine-12/
15. (p28-29) 최윤섭의 Healthcare Innovation, “인공지능은 의사를 대체하는가”,
http://www.yoonsupchoi.com/2017/11/10/ai-medicine-9/
16. (p30) Eric Topol Twitter, https://twitter.com/erictopol/status/931906798432350208
17. (p31) 동아일보, http://dimg.donga.com/wps/NEWS/IMAGE/2017/06/19/84945511.1.edit.jpg
18. (p32) 최윤섭의 Healthcare Innovation, “인공지능의 시대, 의사는 무엇으로 사는가”,
http://www.yoonsupchoi.com/2017/12/29/ai-medicine-11/
19. (p33) Medium, “Why AI will not replace radiologists” https://towardsdatascience.com/why-ai-will-not-replace-
radiologists-c7736f2c7d80
20. (p39, p70, p148) AIRI 400, “Machine Learning 기초” (이광희 박사)
21. (p40) ciokorea 인터뷰, “데이빗 마이어에게 듣는 머신러닝과 네트워크와 보안”, http://www.ciokorea.com/news/34370
22. (p41) Data Science Central, https://www.datasciencecentral.com/profiles/blogs/types-of-machine-learning-algorithms-
in-one-picture
23. (p42, p71-72) 모두의 연구소, “기계학습/머신러닝 기초”, http://www.whydsp.org/237
24. (p43, p52, p54-56, p73) AIRI 400, 패턴인식-기계학습의 원리, 능력과 한계 (김진형 박사)
25. (p44-45) Pinterest, https://www.pinterest.co.uk/pin/53832158029479772/
26. (p53) BRILLIANT, Feature Vector, https://brilliant.org/wiki/feature-vector/
27. (p57) The NEJM, “Chocolate Consumption, Cognitive Function, and Nobel Laureates”,
http://www.nejm.org/doi/pdf/10.1056/NEJMon1211064
28. (p59) tSL, the Science Life, “빅데이터: 큰 용량의 역습 – 차원의 저주”, http://thesciencelife.com/archives/1001
29. (p60) Random Musings’ blog, https://dmm613.wordpress.com/author/dmm613/
30. (p63) Steemit, “A Tour of Machine Learning Algorithms”, https://steemit.com/science/@techforn10/a-tour-of-machine-
learning-algorithms
31. (p64)
• Deep Thoughts, “Demystifying deep”, https://devashishshankar.wordpress.com/2015/11/13/demystifying-deep-
neural-networks/
• Brian Dolhansky, “Artificial Neural Networks: Linear Multiclass Classification (part3)”,
http://briandolhansky.com/blog/2013/9/23/artificial-neural-nets-linear-multiclass-part-3
• Statistical Pattern Recognition Toolbox for Matlab, “Examples: Statistical Pattern Recognition Toolbox”,
https://cmp.felk.cvut.cz/cmp/software/stprtool/examples.html#knnclass_example
32. (p65) Xu Cui’s blog, SVM regression with libsvm, http://www.alivelearn.net/?p=1083
33. (p70)
• Sanghyukchun’s blog, Machine Learning 스터디 (7) Convex Optimization, http://sanghyukchun.github.io/63/
• Coursera, Machine Learning (Standford), https://ko.coursera.org/learn/machine-learning
34. (p74) R,Pyrhon 분석과 프로그래밍(by R Friend), [R 기계학습] 과적합(Over-fitting), Bias-Variance Trade-off (Delimma),
http://rfriend.tistory.com/189
35. (p76-79) 2nd Summer School on Deep Learning for Computer Vision Barcelona,
https://www.slideshare.net/xavigiro/training-deep-networks-d1l5-2017-upc-deep-learning-for-computer-vision
36. (p80-81) Medium, “Train/Test Split and Cross Validation in Python”, https://towardsdatascience.com/train-test-split-
and-cross-validation-in-python-80b61beca4b6
37. (p84-85) Ritchie Ng’s blog, “Evaluating a Classification Model”, https://www.ritchieng.com/machine-learning-evaluate-
classification-model/
38. (p86) “Getting Started with TensorFlow(2016), Giancarlo Zaccone, Packt”
39. (p103) WIKIPEDIA, “k-nearest neighbors algorithm”,
https://ko.wikipedia.org/wiki/K%EC%B5%9C%EA%B7%BC%EC%A0%91_%EC%9D%B4%EC%9B%83_%EC%95%8C%EA%B
3%A0%EB%A6%AC%EC%A6%98
40. (p146) Deniz Yuret’s Homepage, “Alec Radford's animations for optimization algorithms”,
http://www.denizyuret.com/2015/03/alec-radfords-animations-for.html
Deep Learning for AI (1)

More Related Content

What's hot

하이퍼커넥트에서 자동 광고 측정 서비스 구현하기 - PyCon Korea 2018
하이퍼커넥트에서 자동 광고 측정 서비스 구현하기 - PyCon Korea 2018하이퍼커넥트에서 자동 광고 측정 서비스 구현하기 - PyCon Korea 2018
하이퍼커넥트에서 자동 광고 측정 서비스 구현하기 - PyCon Korea 2018승호 박
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기NAVER Engineering
 
나의 이직 이야기
나의 이직 이야기나의 이직 이야기
나의 이직 이야기종립 이
 
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석BOAZ Bigdata
 
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.Yongho Ha
 
boosting 기법 이해 (bagging vs boosting)
boosting 기법 이해 (bagging vs boosting)boosting 기법 이해 (bagging vs boosting)
boosting 기법 이해 (bagging vs boosting)SANG WON PARK
 
기계학습 / 딥러닝이란 무엇인가
기계학습 / 딥러닝이란 무엇인가기계학습 / 딥러닝이란 무엇인가
기계학습 / 딥러닝이란 무엇인가Yongha Kim
 
モバイル向けEdgeTPUの紹介
モバイル向けEdgeTPUの紹介モバイル向けEdgeTPUの紹介
モバイル向けEdgeTPUの紹介卓然 郭
 
오늘 밤부터 쓰는 google analytics (구글 애널리틱스, GA)
오늘 밤부터 쓰는 google analytics (구글 애널리틱스, GA) 오늘 밤부터 쓰는 google analytics (구글 애널리틱스, GA)
오늘 밤부터 쓰는 google analytics (구글 애널리틱스, GA) Yongho Ha
 
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?Yongho Ha
 
GAN을 이용한 캐릭터 리소스 제작 맛보기
GAN을 이용한 캐릭터 리소스 제작 맛보기GAN을 이용한 캐릭터 리소스 제작 맛보기
GAN을 이용한 캐릭터 리소스 제작 맛보기기룡 남
 
딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해Hee Won Park
 
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...Deep Learning JP
 
[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝Modulabs
 
機械学習をこれから始める人が読んでおきたい 特徴選択の有名論文紹介
機械学習をこれから始める人が読んでおきたい 特徴選択の有名論文紹介機械学習をこれから始める人が読んでおきたい 特徴選択の有名論文紹介
機械学習をこれから始める人が読んでおきたい 特徴選択の有名論文紹介西岡 賢一郎
 
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?Yongho Ha
 
[Causal Inference KR] 스타트업에서의 인과추론
[Causal Inference KR] 스타트업에서의 인과추론[Causal Inference KR] 스타트업에서의 인과추론
[Causal Inference KR] 스타트업에서의 인과추론Bokyung Choi
 
실리콘 밸리 데이터 사이언티스트의 하루
실리콘 밸리 데이터 사이언티스트의 하루실리콘 밸리 데이터 사이언티스트의 하루
실리콘 밸리 데이터 사이언티스트의 하루Jaimie Kwon (권재명)
 
異音検知プラットフォーム開発におけるMLOpsの実際と考察 - MLOps コミュニティ #3
異音検知プラットフォーム開発におけるMLOpsの実際と考察 - MLOps コミュニティ #3 異音検知プラットフォーム開発におけるMLOpsの実際と考察 - MLOps コミュニティ #3
異音検知プラットフォーム開発におけるMLOpsの実際と考察 - MLOps コミュニティ #3 Shota Saitoh
 

What's hot (20)

하이퍼커넥트에서 자동 광고 측정 서비스 구현하기 - PyCon Korea 2018
하이퍼커넥트에서 자동 광고 측정 서비스 구현하기 - PyCon Korea 2018하이퍼커넥트에서 자동 광고 측정 서비스 구현하기 - PyCon Korea 2018
하이퍼커넥트에서 자동 광고 측정 서비스 구현하기 - PyCon Korea 2018
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
 
나의 이직 이야기
나의 이직 이야기나의 이직 이야기
나의 이직 이야기
 
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석
 
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
 
boosting 기법 이해 (bagging vs boosting)
boosting 기법 이해 (bagging vs boosting)boosting 기법 이해 (bagging vs boosting)
boosting 기법 이해 (bagging vs boosting)
 
기계학습 / 딥러닝이란 무엇인가
기계학습 / 딥러닝이란 무엇인가기계학습 / 딥러닝이란 무엇인가
기계학습 / 딥러닝이란 무엇인가
 
モバイル向けEdgeTPUの紹介
モバイル向けEdgeTPUの紹介モバイル向けEdgeTPUの紹介
モバイル向けEdgeTPUの紹介
 
오늘 밤부터 쓰는 google analytics (구글 애널리틱스, GA)
오늘 밤부터 쓰는 google analytics (구글 애널리틱스, GA) 오늘 밤부터 쓰는 google analytics (구글 애널리틱스, GA)
오늘 밤부터 쓰는 google analytics (구글 애널리틱스, GA)
 
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
 
GAN을 이용한 캐릭터 리소스 제작 맛보기
GAN을 이용한 캐릭터 리소스 제작 맛보기GAN을 이용한 캐릭터 리소스 제작 맛보기
GAN을 이용한 캐릭터 리소스 제작 맛보기
 
딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해딥러닝 기본 원리의 이해
딥러닝 기본 원리의 이해
 
Gan
GanGan
Gan
 
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...
[DL輪読会]Pervasive Attention: 2D Convolutional Neural Networks for Sequence-to-...
 
[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝
 
機械学習をこれから始める人が読んでおきたい 特徴選択の有名論文紹介
機械学習をこれから始める人が読んでおきたい 特徴選択の有名論文紹介機械学習をこれから始める人が読んでおきたい 特徴選択の有名論文紹介
機械学習をこれから始める人が読んでおきたい 特徴選択の有名論文紹介
 
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
 
[Causal Inference KR] 스타트업에서의 인과추론
[Causal Inference KR] 스타트업에서의 인과추론[Causal Inference KR] 스타트업에서의 인과추론
[Causal Inference KR] 스타트업에서의 인과추론
 
실리콘 밸리 데이터 사이언티스트의 하루
실리콘 밸리 데이터 사이언티스트의 하루실리콘 밸리 데이터 사이언티스트의 하루
실리콘 밸리 데이터 사이언티스트의 하루
 
異音検知プラットフォーム開発におけるMLOpsの実際と考察 - MLOps コミュニティ #3
異音検知プラットフォーム開発におけるMLOpsの実際と考察 - MLOps コミュニティ #3 異音検知プラットフォーム開発におけるMLOpsの実際と考察 - MLOps コミュニティ #3
異音検知プラットフォーム開発におけるMLOpsの実際と考察 - MLOps コミュニティ #3
 

Similar to Deep Learning for AI (1)

Workshop 210417 dhlee
Workshop 210417 dhleeWorkshop 210417 dhlee
Workshop 210417 dhleeDongheon Lee
 
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks pko89403
 
데이터에서 의미 추출하기
데이터에서 의미 추출하기데이터에서 의미 추출하기
데이터에서 의미 추출하기Nam-young Lee
 
T ka kr_4th
T ka kr_4thT ka kr_4th
T ka kr_4thSubin An
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)SK(주) C&C - 강병호
 
Things Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in MindThings Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in MindDataya Nolja
 
기계학습을 이용한 숫자인식기 제작
기계학습을 이용한 숫자인식기 제작기계학습을 이용한 숫자인식기 제작
기계학습을 이용한 숫자인식기 제작Do Hoerin
 
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)Jaimie Kwon (권재명)
 
Meetup history
Meetup historyMeetup history
Meetup historyMk Kim
 
Image data augmentatiion
Image data augmentatiionImage data augmentatiion
Image data augmentatiionSubin An
 
[코세나, kosena] 금융권의 머신러닝 활용사례
[코세나, kosena] 금융권의 머신러닝 활용사례[코세나, kosena] 금융권의 머신러닝 활용사례
[코세나, kosena] 금융권의 머신러닝 활용사례kosena
 
AnoGAN을 이용한 철강 소재 결함 검출 AI
AnoGAN을 이용한 철강 소재 결함 검출 AIAnoGAN을 이용한 철강 소재 결함 검출 AI
AnoGAN을 이용한 철강 소재 결함 검출 AIHYEJINLIM10
 
[FAST CAMPUS] 1강 data science overview
[FAST CAMPUS] 1강 data science overview [FAST CAMPUS] 1강 data science overview
[FAST CAMPUS] 1강 data science overview chanyoonkim
 
Bigdate & R programming
Bigdate & R programmingBigdate & R programming
Bigdate & R programmingSeongWan Son
 
권기훈_포트폴리오
권기훈_포트폴리오권기훈_포트폴리오
권기훈_포트폴리오Kihoon4
 
Chapter 11 Practical Methodology
Chapter 11 Practical MethodologyChapter 11 Practical Methodology
Chapter 11 Practical MethodologyKyeongUkJang
 
머신러닝의 개념과 실습
머신러닝의 개념과 실습머신러닝의 개념과 실습
머신러닝의 개념과 실습Byoung-Hee Kim
 
Peopleplus hr session(2) people analytics, start today
Peopleplus hr session(2) people analytics, start todayPeopleplus hr session(2) people analytics, start today
Peopleplus hr session(2) people analytics, start todayYoungchan Jo
 
[2A7]Linkedin'sDataScienceWhyIsItScience
[2A7]Linkedin'sDataScienceWhyIsItScience[2A7]Linkedin'sDataScienceWhyIsItScience
[2A7]Linkedin'sDataScienceWhyIsItScienceNAVER D2
 
Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...
Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...
Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...Wookjin Choi
 

Similar to Deep Learning for AI (1) (20)

Workshop 210417 dhlee
Workshop 210417 dhleeWorkshop 210417 dhlee
Workshop 210417 dhlee
 
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
DeepAR:Probabilistic Forecasting with Autogressive Recurrent Networks
 
데이터에서 의미 추출하기
데이터에서 의미 추출하기데이터에서 의미 추출하기
데이터에서 의미 추출하기
 
T ka kr_4th
T ka kr_4thT ka kr_4th
T ka kr_4th
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)
 
Things Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in MindThings Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in Mind
 
기계학습을 이용한 숫자인식기 제작
기계학습을 이용한 숫자인식기 제작기계학습을 이용한 숫자인식기 제작
기계학습을 이용한 숫자인식기 제작
 
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)데이터분석의 길 5:  “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
데이터분석의 길 5: “고수는 큰자료를 두려워하지 않는다” (클릭확률예측 상편)
 
Meetup history
Meetup historyMeetup history
Meetup history
 
Image data augmentatiion
Image data augmentatiionImage data augmentatiion
Image data augmentatiion
 
[코세나, kosena] 금융권의 머신러닝 활용사례
[코세나, kosena] 금융권의 머신러닝 활용사례[코세나, kosena] 금융권의 머신러닝 활용사례
[코세나, kosena] 금융권의 머신러닝 활용사례
 
AnoGAN을 이용한 철강 소재 결함 검출 AI
AnoGAN을 이용한 철강 소재 결함 검출 AIAnoGAN을 이용한 철강 소재 결함 검출 AI
AnoGAN을 이용한 철강 소재 결함 검출 AI
 
[FAST CAMPUS] 1강 data science overview
[FAST CAMPUS] 1강 data science overview [FAST CAMPUS] 1강 data science overview
[FAST CAMPUS] 1강 data science overview
 
Bigdate & R programming
Bigdate & R programmingBigdate & R programming
Bigdate & R programming
 
권기훈_포트폴리오
권기훈_포트폴리오권기훈_포트폴리오
권기훈_포트폴리오
 
Chapter 11 Practical Methodology
Chapter 11 Practical MethodologyChapter 11 Practical Methodology
Chapter 11 Practical Methodology
 
머신러닝의 개념과 실습
머신러닝의 개념과 실습머신러닝의 개념과 실습
머신러닝의 개념과 실습
 
Peopleplus hr session(2) people analytics, start today
Peopleplus hr session(2) people analytics, start todayPeopleplus hr session(2) people analytics, start today
Peopleplus hr session(2) people analytics, start today
 
[2A7]Linkedin'sDataScienceWhyIsItScience
[2A7]Linkedin'sDataScienceWhyIsItScience[2A7]Linkedin'sDataScienceWhyIsItScience
[2A7]Linkedin'sDataScienceWhyIsItScience
 
Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...
Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...
Insight toolkit을 이용한 삼차원 흉부 ct 영상분석 및 폐 결절 검ᄎ...
 

More from Dongheon Lee

Pixel RNN to Pixel CNN++
Pixel RNN to Pixel CNN++Pixel RNN to Pixel CNN++
Pixel RNN to Pixel CNN++Dongheon Lee
 
ModuLab DLC-Medical5
ModuLab DLC-Medical5ModuLab DLC-Medical5
ModuLab DLC-Medical5Dongheon Lee
 
ModuLab DLC-Medical4
ModuLab DLC-Medical4ModuLab DLC-Medical4
ModuLab DLC-Medical4Dongheon Lee
 
ModuLab DLC-Medical1
ModuLab DLC-Medical1ModuLab DLC-Medical1
ModuLab DLC-Medical1Dongheon Lee
 
ModuLab DLC-Medical3
ModuLab DLC-Medical3ModuLab DLC-Medical3
ModuLab DLC-Medical3Dongheon Lee
 
Deep Learning for AI (2)
Deep Learning for AI (2)Deep Learning for AI (2)
Deep Learning for AI (2)Dongheon Lee
 
Deep Learning for AI (3)
Deep Learning for AI (3)Deep Learning for AI (3)
Deep Learning for AI (3)Dongheon Lee
 

More from Dongheon Lee (9)

GAN Evaluation
GAN EvaluationGAN Evaluation
GAN Evaluation
 
BeautyGlow
BeautyGlowBeautyGlow
BeautyGlow
 
Pixel RNN to Pixel CNN++
Pixel RNN to Pixel CNN++Pixel RNN to Pixel CNN++
Pixel RNN to Pixel CNN++
 
ModuLab DLC-Medical5
ModuLab DLC-Medical5ModuLab DLC-Medical5
ModuLab DLC-Medical5
 
ModuLab DLC-Medical4
ModuLab DLC-Medical4ModuLab DLC-Medical4
ModuLab DLC-Medical4
 
ModuLab DLC-Medical1
ModuLab DLC-Medical1ModuLab DLC-Medical1
ModuLab DLC-Medical1
 
ModuLab DLC-Medical3
ModuLab DLC-Medical3ModuLab DLC-Medical3
ModuLab DLC-Medical3
 
Deep Learning for AI (2)
Deep Learning for AI (2)Deep Learning for AI (2)
Deep Learning for AI (2)
 
Deep Learning for AI (3)
Deep Learning for AI (3)Deep Learning for AI (3)
Deep Learning for AI (3)
 

Deep Learning for AI (1)

  • 1. 2018. 04. 12. 인공지능을 위한 딥러닝 프로그래밍 Machine Learning 의용전자연구실 박사과정 이동헌
  • 2. Week3 Machine Learning (18. 04. 12. 13:00-17:00) Week4 Deep Learning (18. 05. 03. 13:00-17:00) Week5 AI in Medicine (18. 05. 10. 13:00-17:00) • Introduction to AI • Machine Learning Overview • Image Classification Pipeline • Loss functions and Optimization • Neural Network and Backpropagation • Training Neural Networks • Convolutional Neural Networks (CNNs) • CNNs Models • Applications of CNNs • Recurrent Neural Networks (RNNs) • Deep Learning in Practice • Applications in Medicine
  • 3.  Introduction to AI  Machine Learning Overview  Image Classification Pipeline  Loss functions and Optimization
  • 5.
  • 6.
  • 7. 7
  • 8.
  • 11. • 스탠포드대학과 구글이 16,000개의 컴퓨터 프로세스와 10억개 이상의 뉴럴네트워크 를 이용해서 유튜브 내 천만개 비디오 중에서 고양이를 인식. • 학습데이터가 없은 비지도학습(즉 컴퓨터에게 “이러한 이미지는 고양이다”라고 가르쳐주지 않음). • 그 결과 인간의 얼굴은 81.7%, 인간의 몸 76.7%, 고양이는 74.8%의 정확도로 인식함. 2012년 6월
  • 13.
  • 14.
  • 15.
  • 16. NAVER speech recognition 20% 개선 100% 10% 4% 1% 1990 2000 2010 Using Deep Learning According to Microsoft’s speech group: GMM WorderrorrateonSwitchboard Speech Recognition (Acoustic Modeling)
  • 17. 17 • 공개 소프트웨어 (AI) • 공개 데이터 • 공개 논문 • 공개 경진대회 • 공동 프로젝트 • Open AI Promotion Community AI 기술 진보는 어떻게 오는가?
  • 18. 18
  • 19.
  • 20. 20 “인공지능이 가장 중요한 세상(AI-first world)에서 우리는 모든 제품을 다시 생각하고 있다. (we are rethinking all our products)” 순다르 피차이(구글 최고경영자) 2017.05.18
  • 21. 21
  • 22. 22
  • 23. 23 AI in Healthcare 출처: 구글 이미지
  • 24. 24
  • 25. 25
  • 26. 병원명 AI 시스템 개발 내용 Lunit과 Chest X-ray 폐암 조기진단 시스템 개발 협력 OBS Korea와 치과용 인공지능 시스템 개발 협력 AI 벤처기업과 심혈관 질환 조기 진단 시스템 개발 협력 VUNO와 폐암 CT 영상 분석 시스템 개발 협력 삼성 메디슨과 초음파를 이용한 유방암 조기 진단 시스템 개발 협력 인공지능 암 치료 개발 사업 추진 예정 암 진단을 위한 IBM Watson 도입 지능형 의료 안내 로봇 개발 국내 주요 병원 AI 기술 개발 현황 (2017년 기준)
  • 27. 서울의대 예과 ‘의학 입문’ 수업 중 (2017년 11월)
  • 30. AI will replace radiologists?
  • 31.
  • 33. Reason 1. Humans will always maintain ultimate responsibility. Reason 2. Radiologists don’t just look at images. Reason 3. Productivity gains will drive demand. Why AI will not replace radiologists? Doctors? Doctors
  • 34. 34
  • 35. 35 우승팀의 딥러닝 모델 개요 (Andrew back, Harvard Univ.)
  • 39. 39 Q. What is learning? • 인간이 연속된 경험을 통해 배워가는 일련의 과정 - David Kolb • 기억(Memorization)하고 적응(Adaptation)하고, 이를 일반화(Generalization)하는 것 Q. Why machines need to learn? • 모든 것을 프로그래밍 할 수 없다. • 모든 상황을 커버할 수 있는 룰을 만드는 것은 불가능하다. • 알고리즘으로 정의하기 어려운 일들이 있다.
  • 40. 40
  • 41. 41
  • 42. 42 머신러닝 과정 1. 데이터 수집 및 전처리 2. 특징 선택 및 추출 3. 알고리즘 선택 4. 학습 5. 평가
  • 46. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 47. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 48. 48 1. 데이터 수집 및 전처리 출처: 구글 이미지
  • 49. 49 1. 데이터 수집 및 전처리 출처: 구글 이미지
  • 50. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 51. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 52. 52 2. 특징 선택 및 추출
  • 53. 53 2. 특징 선택 및 추출 • 특징(Feature) 종류? • 특징(Feature) 갯수? Length Lightness Width Number and shape of fins Position of the mouth … 생선의 특징 =
  • 54. 54 2. 특징 선택 및 추출 ’길이’ 특징
  • 55. 55 2. 특징 선택 및 추출 ’밝기’ 특징
  • 56. 56 2. 특징 선택 및 추출 ’길이 & 밝기’ 특징
  • 57. 57 • 전 세계 주요 국가의 100만명 당 연간 초콜릿 소비량과 노벨상 수상자 수와의 상 관관계 분석에 대한 결과를 발표 (NEJM, 2012). • 그 결과는 매우 강한 상관관계가 있음 (r=0.791; 통상 상관계수 r값이 0.7 이상이 면 매우 강한 상관관계를 나타냄). • 이 상관계수는 노벨위원회가 있는 스웨덴을 제외할 경우 0.862로 더 높아짐. 2. 특징 선택 및 추출 - 종류
  • 59. 59 2. 특징 선택 및 추출 - 크기 e.g. • BMI = 키, 몸무게 (2D) • 건강상태 = 혈압, 나이, BMI (5D)
  • 60. 60 2. 특징 선택 및 추출 • More features often makes better performance. • Too many features often causes poor generalization capability. → ‘Curse of Dimensionality’
  • 61. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 62. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 66. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 67. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 68. Continuous value Categorical value (Binary, One-hot) e.g. Least Square Method e.g. Cross-entropy  Cost function (a.k.a Loss function) • 학습의 기준이 되는 함수를 정의 • Cost function이 최소화하는 방향으로 학습을 진행 (파라미터 변경) 4. 학습
  • 69. 4. 학습  Hyperparameters (모델 학습을 위한 파라미터) • Learning rate • Regularization constant • Loss function • Weight Initialization strategy • Number of epochs • Batch size • (Number of layers) • (Nodes in hidden layer) • (Activation functions) …
  • 70.  Optimization (파라미터 최적화) 4. 학습
  • 73. 73 4. 학습 일반화 능력 훈련에 참여하지 않은 데이터에도 좋은 성능을 보임
  • 74. 4. 학습  Bias: 학습한 모델과 Real World 모델과의 불일치 정도 → Bias를 줄이는 방법: 더 복잡한 모델을 선택  Variance: 학습한 모델에 대해서 데이터셋이 바뀔 때 성능의 변화량 → Variance를 줄이는 방법: 더 많은 데이터를 수집
  • 75. 75 4. 학습  Regularization • Weight Decaying • Dropout  Cross-Validation • Leave-one-out • K-fold
  • 78. 78 Weight Decaying4. 학습 Model: Cost function: Cost function(일반식):
  • 79. 79 Weight Decaying4. 학습 Cost function(일반식):
  • 82. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 83. 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가 1.데이터 수집 및 전처리 2.특징 선택 및 추출 3.알고리즘 선택 4.학습 5.평가
  • 84. 84 5. 평가 • Trained Model 을 Test dataset에 적용 Confusion Matrix • Accuracy = (TP + TN) / (TP + TN + FP + FN) • Sensitivity = TP / (FN + TP) • Specificity = TN / (TN + FP) • False positive rate = FP / (TN + FP) • Precision = TP / (TP + FP)
  • 85. 85 5. 평가 Receiver Operating Characteristic (ROC) Curve
  • 86.
  • 87.
  • 88. 88
  • 89. 89
  • 90. Challenges in Visual Recognition
  • 91. 91
  • 92. 92
  • 93. 93
  • 94.
  • 95.
  • 96.
  • 97.
  • 98.
  • 99.
  • 100.
  • 101.
  • 102.
  • 103. • K = 3 ? • K = 5 ?
  • 104.
  • 105.
  • 106. x
  • 107.
  • 108.
  • 109.
  • 110.
  • 111. 1. 데이터 수집 및 전처리 • CIFAR-10 2. 특징 선택 및 추출 • 원본 이미지 그대로 3. 알고리즘 선택 • NN Classifier • K-NN Classifier Summary 4. 학습 • Cross Validation 5. 평가 • N/A
  • 112.
  • 113.
  • 114.
  • 115.
  • 116.
  • 117.
  • 118.
  • 119.
  • 120.
  • 134. Optimization Strategy #2: Follow the slope In 1-dimension, In multi-dimension, gradient is the vector of (partial derivatives)
  • 147. 1. 데이터 수집 및 전처리 • CIFAR-10 2. 특징 선택 및 추출 • 원본 이미지 그대로 3. 알고리즘 선택 • NN Classifier • K-NN Classifier • Linear Classifier Summary 4. 학습 • Cross Validation • Loss Function • Optimization  Gradient Descent  Mini-batch Gradient Descent 5. 평가 • N/A
  • 149.
  • 150. 1. (p6) NVIDIA, “What’s the Difference Between Artificial Intelligence, Machine Learning, and Deep Learning?”, https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/ 2. (p8, p15, p18) Andrew L. Beam, machine learning and medicine, Deep Learning 101 - Part 1: History and Background, https://beamandrew.github.io/deeplearning/2017/02/23/deep_learning_101_part1.html 3. (p9) Yann’s Homepage, http://yann.lecun.com/exdb/lenet/ 4. (p11) The New York Times, “How Many Computers to Identify a Cat? 16,000”, https://www.nytimes.com/2012/06/26/technology/in-a-big-network-of-computers-evidence-of-machine- learning.html?_r=1&amp 5. (p12-14, p34-36, p87-110, p112-145, p149) Standford, CS231n, http://cs231n.stanford.edu/ 6. (p16) Machine Learning Tutorial 2015 (NAVER) 7. (p17) AIRI 400, “인공지능의 개요, 가치, 그리고 한계” (김진형 박사) 8. (p19) CBINSIGHTS, “From Virtual Nurses To Drug Discovery: 106 Artificial Intelligence Startups In Healthcare”, https://www.cbinsights.com/research/artificial-intelligence-startups-healthcare/ 9. (p20) NEWSIS 기사, 구글 CEO "AI시대 맞춰 모든 제품 다시 생각 중“, http://www.newsis.com/view/?id=NISX20170518_0014902945 10. (p21)Analytic Indai, “Infographic- Artificial Narrow Intelligence Vs. Artificial General Intelligence”, https://analyticsindiamag.com/artificial-narrow-vs-artificial-general/
  • 151. 11. (p22) WEF expert panel interviews, press release, company website: A.T Kearney analysis 12. (p24) Machine Learning for Healthcare, MIT. Spring 2017, https://mlhc17mit.github.io/ 13. (p25) Medium, AI in Healthcare: Industry Landscape, https://techburst.io/ai-in-healthcare-industry-landscape- c433829b320c 14. (p27) 최윤섭의 Healthcare Innovation, “인공지능의 시대, 의사의 새로운 역할은”, http://www.yoonsupchoi.com/2018/01/03/ai-medicine-12/ 15. (p28-29) 최윤섭의 Healthcare Innovation, “인공지능은 의사를 대체하는가”, http://www.yoonsupchoi.com/2017/11/10/ai-medicine-9/ 16. (p30) Eric Topol Twitter, https://twitter.com/erictopol/status/931906798432350208 17. (p31) 동아일보, http://dimg.donga.com/wps/NEWS/IMAGE/2017/06/19/84945511.1.edit.jpg 18. (p32) 최윤섭의 Healthcare Innovation, “인공지능의 시대, 의사는 무엇으로 사는가”, http://www.yoonsupchoi.com/2017/12/29/ai-medicine-11/ 19. (p33) Medium, “Why AI will not replace radiologists” https://towardsdatascience.com/why-ai-will-not-replace- radiologists-c7736f2c7d80 20. (p39, p70, p148) AIRI 400, “Machine Learning 기초” (이광희 박사) 21. (p40) ciokorea 인터뷰, “데이빗 마이어에게 듣는 머신러닝과 네트워크와 보안”, http://www.ciokorea.com/news/34370 22. (p41) Data Science Central, https://www.datasciencecentral.com/profiles/blogs/types-of-machine-learning-algorithms- in-one-picture 23. (p42, p71-72) 모두의 연구소, “기계학습/머신러닝 기초”, http://www.whydsp.org/237
  • 152. 24. (p43, p52, p54-56, p73) AIRI 400, 패턴인식-기계학습의 원리, 능력과 한계 (김진형 박사) 25. (p44-45) Pinterest, https://www.pinterest.co.uk/pin/53832158029479772/ 26. (p53) BRILLIANT, Feature Vector, https://brilliant.org/wiki/feature-vector/ 27. (p57) The NEJM, “Chocolate Consumption, Cognitive Function, and Nobel Laureates”, http://www.nejm.org/doi/pdf/10.1056/NEJMon1211064 28. (p59) tSL, the Science Life, “빅데이터: 큰 용량의 역습 – 차원의 저주”, http://thesciencelife.com/archives/1001 29. (p60) Random Musings’ blog, https://dmm613.wordpress.com/author/dmm613/ 30. (p63) Steemit, “A Tour of Machine Learning Algorithms”, https://steemit.com/science/@techforn10/a-tour-of-machine- learning-algorithms 31. (p64) • Deep Thoughts, “Demystifying deep”, https://devashishshankar.wordpress.com/2015/11/13/demystifying-deep- neural-networks/ • Brian Dolhansky, “Artificial Neural Networks: Linear Multiclass Classification (part3)”, http://briandolhansky.com/blog/2013/9/23/artificial-neural-nets-linear-multiclass-part-3 • Statistical Pattern Recognition Toolbox for Matlab, “Examples: Statistical Pattern Recognition Toolbox”, https://cmp.felk.cvut.cz/cmp/software/stprtool/examples.html#knnclass_example 32. (p65) Xu Cui’s blog, SVM regression with libsvm, http://www.alivelearn.net/?p=1083 33. (p70) • Sanghyukchun’s blog, Machine Learning 스터디 (7) Convex Optimization, http://sanghyukchun.github.io/63/ • Coursera, Machine Learning (Standford), https://ko.coursera.org/learn/machine-learning
  • 153. 34. (p74) R,Pyrhon 분석과 프로그래밍(by R Friend), [R 기계학습] 과적합(Over-fitting), Bias-Variance Trade-off (Delimma), http://rfriend.tistory.com/189 35. (p76-79) 2nd Summer School on Deep Learning for Computer Vision Barcelona, https://www.slideshare.net/xavigiro/training-deep-networks-d1l5-2017-upc-deep-learning-for-computer-vision 36. (p80-81) Medium, “Train/Test Split and Cross Validation in Python”, https://towardsdatascience.com/train-test-split- and-cross-validation-in-python-80b61beca4b6 37. (p84-85) Ritchie Ng’s blog, “Evaluating a Classification Model”, https://www.ritchieng.com/machine-learning-evaluate- classification-model/ 38. (p86) “Getting Started with TensorFlow(2016), Giancarlo Zaccone, Packt” 39. (p103) WIKIPEDIA, “k-nearest neighbors algorithm”, https://ko.wikipedia.org/wiki/K%EC%B5%9C%EA%B7%BC%EC%A0%91_%EC%9D%B4%EC%9B%83_%EC%95%8C%EA%B 3%A0%EB%A6%AC%EC%A6%98 40. (p146) Deniz Yuret’s Homepage, “Alec Radford's animations for optimization algorithms”, http://www.denizyuret.com/2015/03/alec-radfords-animations-for.html

Editor's Notes

  1. 1950년, 앨런튜링
  2. 4차 산업혁명? 알파고
  3. Adaline: early single-layer artificial neural network (error feedback)
  4. 논문 발표시, 소스코드 같이 공개하는 관행
  5. Annual Conference on Neural Information Processing Systems  (2016년 기준)
  6. IBM oncology: 의료기기 아님(한국/미국)
  7. 1학년 전체 공통 과목 2주간 뷰노, 루닛 등 방문후 기술의 발전이 자신의 미래에 어떤 영향?
  8. 자동항법(오토파일럿) 발달 -1940’s 2명의 조종사+3명(항공기관사, 항공사, 무선통신사) -1980’s 2명의 조종사 =>그동안 비행사고가 감소 (최근1명으로 줄이자는 얘기도 나옴) -문제점: 오토파일럿 기능에 의존 > 조종사의 전문지식/반사신경/집중력/수동비행기술 감퇴 (;최근 발생한 사고 절반이 이와 관련됨이 보고됨)
  9. 1.자율주행차 사고 2.의사만이 가능한 영역 (general AI) -새로운 연구(문제를 정의) -환자와 교감(e.g. 안좋은 소식 통보) 3. 능률 향상 / AI와 협업
  10. 270장 1.암인지 아닌지 2.암위치
  11. https://www.youtube.com/watch?v=1DmuFPVlITc
  12. 동일한 문제를 놓고 다음과 같은 차이. 기존 프로그래밍 방법은 데이터와 알고리즘을 넣어 컴퓨터가 계산을 수행하고 나서 출력결과를 만들어 내는 과정으로 원하는 결과에 도달할 때까지 과정을 무한반복. 이에 반해 기계학습 알고리즘 접근법은 데이터와 출력결과를 넣게 되면 컴퓨터가 알고리즘을 만들어낸다. 알고리즘의 성능은 데이터의 양과 질에 달려있고, 얼마나 많은 학습을 반복하냐에 달려있다.
  13. 갯수 많음 – computation
  14. 특징 종류
  15. 특징 크기
  16. 한 샘플을 특정짓기 위해서 많은 양의 정보를 준비할수록 (즉 고차원 데이터일수록) 그 데이터로부터 모델을 학습하기가 훨씬 더 어려워지고 훨씬 더 많은 데이터 양이 필요. 20~25% 특징 추출 특징이 너무 많으면, 성능이 떨어짐
  17. 파라미터 튜닝이 곧 학습
  18. Linear regression, SVM regression Regression > Classification
  19. 1. Manual 설정값 2. loss 줄이면서 찾는값
  20. 길이, 넓이 등.. Not obvious
  21. K-NN 은 잡음에 민감함 K=5 (주변 5개 중에 가장 많은 색상을 따라감; 다수를 따라감)
  22. Score function = hypothesis