Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

쫄지말자딥러닝2 - CNN RNN 포함버전

28,409 views

Published on

기존 <쫄지말자딥러닝> 자료에 CNN / RNN 에 대한 설명을 추가한 업그레이드 버전입니다.

Published in: Technology
  • 안녕하세요. 혹시 발표영상을 볼 수 있을까요?
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here

쫄지말자딥러닝2 - CNN RNN 포함버전

  1. 1. 쫄지말자 딥러닝 김 승 일 Seungil Kim 모두의연구소
  2. 2. 모두의연구소 하고싶은 연구주제가 있다면 누구든지 연구실을 만들 수 있고 재밌어 보이는 연구실을 찾았다면 누구나 연구실에 참여할 수 있는 모두 모여 함께 연구하는 세상에 없던 단 하나의 열린 연구소 딥러닝 연구실 드론 연구실 / 안티드론 연구실 범죄통계분석 연구실 Embedded 연구실 / IoT 연구실 데이터분석 연구실 강화학습 연구실 로보틱스 연구실 가상현실 연구실
  3. 3. 인공지능(Artificial Intelligence) 머신러닝(Machine Learning) 딥러닝(Deep Learning) Convolutional Neural Network 쫄지말자 딥러닝 Recurrent Neural Network 토론 : 인간과 인공지능
  4. 4. 인공지능이 두려우신가요? 모두의연구소
  5. 5. 인공지능이란 무엇일까요? 모두의연구소
  6. 6. 인공지능을 단순화해서 생각해봅시다. 모두의연구소
  7. 7. Dog 모두의연구소 Cat 입력이 주어지면 출력을 내보낸다. 인공지능
  8. 8. 입력이 주어지면, 출력을 내보낸다. 우리 이런 걸 어디서 봤죠? 모두의연구소
  9. 9. 함수 (Functions) 모두의연구소 System, Filter 라고도 불립니다.
  10. 10. 모두의연구소 더 쉽게는 초등학교 때 배운 수수께끼 상자
  11. 11. 모두의연구소 3 ⅹ?? 6
  12. 12. 모두의연구소 x F:x y y
  13. 13. 인공지능 별 거 아니죠? 무서울 것 없습니다. 근데 왜갑자기 무서워 졌을까요? 모두의연구소
  14. 14. 원의 넓이를 구하는 함수는? 모두의연구소 r 𝐴 = 𝜋𝑟2
  15. 15. 모두의연구소 수학적으로 표현할 수 없었던 복잡한 인간의 두뇌를 데이터를 기반으로 흉내내다.
  16. 16. 인공지능(Artificial Intelligence) 머신러닝(Machine Learning) 딥러닝(Deep Learning) Convolutional Neural Network 쫄지말자 딥러닝 Recurrent Neural Network 토론 : 인간과 인공지능
  17. 17. 인공지능? 머신러닝? 머신러닝은 또 뭘까요? 모두의연구소
  18. 18. 러닝(Learning) = 학습  Adaptation/Update 모두의연구소 인공지능이 점점 똑똑해진다.
  19. 19. 모두의연구소 X[n] F[n] F[n-1] Y[n] n : data index Data가 늘어날수록 점점 인공지능 알고리즘이 학습(Learning)한다.
  20. 20. 머신러닝의 세가지 타입 모두의연구소 Supervised Unsupervised Reinforcement Learning
  21. 21. 모두의연구소 3 X ??? 6 Dog Cat Supervised Learning - 정답이 주어진다. - (비교적)문제풀이가 쉽다
  22. 22. 모두의연구소 3 X ??? ??? Unsupervised Learning 미지수 2개, 방정식 1개 풀 수 있나요?
  23. 23. 모두의연구소 이것은 풀 수 있나요? xy-x-y+1=0, x와 y를 구하라. (x,y는 자연수)
  24. 24. 모두의연구소 좋은 조건이 주어지거나 잘 찍는 수 밖에… - 특정 조건이 있을 때만 정답이 주어질 수 있다. - 기본적으로 문제풀이가 어렵다.
  25. 25. 모두의연구소 Reinforcement Learning - (정답이 아닌) reward가 주어진다. Reward
  26. 26. 모두의연구소 x ??? +10 / -10 Reinforcement Learning
  27. 27. 인공지능(Artificial Intelligence) 머신러닝(Machine Learning) 딥러닝(Deep Learning) Convolutional Neural Network 쫄지말자 딥러닝 Recurrent Neural Network 토론 : 인간과 인공지능
  28. 28. 모두의연구소 Artistic Style
  29. 29. 모두의연구소 Image Question and Answering
  30. 30. 모두의연구소 Image Generation http://mattya.github.io/chainer-DCGAN/
  31. 31. 모두의연구소 Deep Reinforcement Learning : Game
  32. 32. 모두의연구소 Reinforcement Learning : UAV Control
  33. 33. 모두의연구소 머신러닝 (Machine Learning) 인공신경망 (Neural Network) 딥러닝 (Deep Learning) 딥러닝? 머신러닝?
  34. 34. 모두의연구소 딥러닝을 이해하기 위해서는 인공신경망을 알아야 한다.
  35. 35. 모두의연구소 이제부터 조금 어려워집니다. 딥러닝이 원래 진입장벽이 있어요.
  36. 36. 모두의연구소 뉴런과 인공뉴런 x 1 x 1 b w 다른 머신러닝 기법들과의 차이점 1: Nonlinear(복잡한) activation function b w
  37. 37. 모두의연구소 다층 레이어 (Multiple Layer) 다른 머신러닝 기법들과의 차이점 2 : Nonlinear function의 Nonlinear function의 Nonlinear function … 엄청 복잡한 함수 (인공지능)을 만들 수 있다. Hidden layer가 2개이상인 NN를 Deep Learning이라고 부른다.
  38. 38. 모두의연구소 오~ 그러면 레이어가 많을수록 높은 지능의 인공지능을 (복잡한 함수를) 만들 수 있겠는데!!! 레이어 100개 만들 수 있을까요?
  39. 39. 모두의연구소 쉽지 않습니다. (1) Overfitting (2) Vanishing Gradient Neural Network이 나온지 오래되었지만, 그동안 이걸 풀지 못해서 암흑기에.. 그러나, 이 두가지 문제를 해결하면서 딥러닝의 중흥기가 시작됨.
  40. 40. 모두의연구소 차근차근 알아봅시다 (1) Overfitting
  41. 41. 모두의연구소 Overfitting 이란? 연습문제는 엄청 잘 푸는데 시험만 보면 망함집넓이를 가지고 집값을 맞추는 인공지능(=함수) 오히려 집값이 떨어짐
  42. 42. 모두의연구소 Overfitting은 왜 생길까? (1) 풀어야 되는 문제는 간단한데, 모델이 너무 복잡… 2차함수면 충분한데 5차함수로 모델링을 했다면?
  43. 43. 모두의연구소 Overfitting은 왜 생길까? (2) 주어진 데이터는 몇 개 없는데, 모델이 너무 복잡… Big Data
  44. 44. 모두의연구소 딥러닝은 모델이 엄청 복잡하다. 수백만개의 파라미터… Overfitting이 일어나기 쉽다. 어떻게 하면 좋을까???
  45. 45. 모두의연구소 Dropout 랜덤하게 뉴런을 끊음으로써, 모델을 단순하게 만든다.
  46. 46. 모두의연구소 차근차근 알아봅시다 (2) Vanishing Gradient
  47. 47. 모두의연구소 (Deep) Learning을 하기 위해서는 여자저차해서 미분을 이용합니다. 학습되는 양 = 미분값 * 출력값
  48. 48. 모두의연구소 - 미분을 하면 0이 나와서, Learning이 불가함 (1) 그런데 최대값이 1… 출력값이 0.5라고 했을때, 4 개의 레이어만 지나도 1/16 (2) 대부분의 영역에서 미분 값이 0에 가깝다  Vanishing Gradient
  49. 49. 모두의연구소 ReLU의 등장 미분값이 1 출력값은 제한 없음
  50. 50. 모두의연구소 Long Short Term Memory
  51. 51. 모두의연구소 Deep Learning을 연구해보고 싶습니다!!
  52. 52. 모두의연구소 Convolutional Neural Network Recurrent Neural Network 만 이해할 수 있으면, 시작으로는 충분합니다! [RNN] http://colah.github.io/posts/2015-08-Understanding-LSTMs/ [CNN] http://cs231n.stanford.edu/
  53. 53. 모두의연구소 그런데 처음하시는 분들에게는 진입장벽이 있긴 합니다.
  54. 54. 모두의연구소
  55. 55. 인공지능(Artificial Intelligence) 머신러닝(Machine Learning) 딥러닝(Deep Learning) Convolutional Neural Network 쫄지말자 딥러닝 Recurrent Neural Network 토론 : 인간과 인공지능
  56. 56. 모두의연구소 CNN에 들어가기에 앞서 가장 기본적인 Neural Network 부터 공부해봅시다.
  57. 57. 모두의연구소 인공지능 함수를 가장 간단한 1차함수로 모델링해보자  (vanilla) neural network x 1 b w 다른 머신러닝 기법들과의 차이점 1: Nonlinear(복잡한) activation function g( ) 𝒘 𝑇 𝒙 + 𝑏 𝑔(𝒘 𝑇 𝒙 + 𝑏)
  58. 58. 모두의연구소 x 1 b w DataSet이 복잡해진다면…
  59. 59. 모두의연구소 Neural Network를 영상처리에 특화시켜보자!  Convolutional Neural Network
  60. 60. 모두의연구소 Convolution (Operator)이란? 2+3 9-7 7x8 10/2 [2 3]*[1 1]
  61. 61. 모두의연구소 영상에서의 Convolution (1)A 영역의 Convolution 값은? (2)B 영역의 Convolution 값은? (3)C 영역의 Convolution 값은? (4)D 영역의 Convolution 값은? (5)E 영역의 Convolution 값은? (6)전체 이미지의 Convolution 값은? (7)이 filter의 역할은? A B C D E
  62. 62. 모두의연구소 Convolution 연산자의 특징 입력 영상 f는 어떻게 변했을까? [Ex] f : 입력영상, g : R/G 통과 필터, h : R 통과필터 (f*g)*h=f*(g*h) 결합법칙이 성립한다.
  63. 63. 모두의연구소 영상 분석의 기초 : 서로 다른 크기의 영상 feature가 필요하다 Corner Detection Example
  64. 64. 모두의연구소 서로 다른 크기의 영상 feature를 만드는 두가지 방법!
  65. 65. 모두의연구소 1. 필터 사이즈를 점점 크게 만든다. 3x3 5x5 7x7
  66. 66. 모두의연구소 2. 영상 사이즈를 점점 작게 만든다. 3x3 6x6
  67. 67. 모두의연구소 이 두가지를 모두 넣은 게 Convolutional Neural Network!
  68. 68. 모두의연구소 입력 영상 Convolution Convolution Convolution 3x3 3x3 3x3 5x5 7x7 1. 필터 사이즈를 점점 크게 만든다.
  69. 69. 모두의연구소 입력 영상 Convolution Convolution Convolution 2. 영상 사이즈를 점점 작게 만든다. Max Pooling Max Pooling
  70. 70. 모두의연구소 Neural Network Convolutional Neural Network (CNN) Maxpooling Maxpooling Feature extraction
  71. 71. 인공지능(Artificial Intelligence) 머신러닝(Machine Learning) 딥러닝(Deep Learning) Convolutional Neural Network 쫄지말자 딥러닝 Recurrent Neural Network 토론 : 인간과 인공지능
  72. 72. 모두의연구소 입력 또는 출력에 시간 순서가 있다면?  Recurrent Neural Network
  73. 73. 모두의연구소 (Vanilla) Neural Network 입력이 들어가면 출력이 하나 나온다.
  74. 74. 모두의연구소 입력이 들어가면 출력이 순차적으로 나온다.
  75. 75. 모두의연구소 출력에 시간순서가 있다면? Image Caption Generation
  76. 76. 모두의연구소 입력이 순차적으로 들어가면 출력이 나온다.
  77. 77. 모두의연구소 Sentiment Classification
  78. 78. 모두의연구소 입력이 순차적으로 들어가면 출력이 순차적으로 나온다.
  79. 79. 모두의연구소 Machine Translation
  80. 80. 모두의연구소 (Vanilla) Neural Network의 구조 H x y
  81. 81. 모두의연구소 RNN의 구조 H(t) x y z-1 H(t-1) H(t)=W1x+W2H(t-1)
  82. 82. 모두의연구소 RNN의 구조 H(t) x y z-1 H(t) x(t) y(t) H(t-1) H(t-1) x(t-1) y(t-1) H(t-2) x(t-2) y(t-2) ⋯
  83. 83. 모두의연구소 RNN 응용 구조는 이렇게 만들어진 것들..
  84. 84. 인공지능(Artificial Intelligence) 머신러닝(Machine Learning) 딥러닝(Deep Learning) Convolutional Neural Network 쫄지말자 딥러닝 Recurrent Neural Network 토론 : 인간과 인공지능
  85. 85. 모두의연구소 인공지능은 정말 지능을 가지고 있는 것일까요?
  86. 86. 모두의연구소 인공지능이 할 수 없는 것은 어떤 것일까요?
  87. 87. Speech Innovation Consulting Group 김 승 일 연구소장 E-mail : si.kim@modulabs.co.kr Blog : www.whyDSP.org FB: www.facebook.com/lab4all www.facebook.com/groups/modulabs

×