Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016

95,142 views

Published on

DCGAN, Neural Turing Machine, Deep Q Network, Visual Analogy

Published in: Technology
  • 크 정리 완전 깔끔하네요. 잘봤습니다!
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here
  • 크 정리 완전 짤끔하네요
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here

지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016

  1. 1. 지적 대화를 위한 깊고 넓은 딥러닝 김태훈 carpedm20
  2. 2. 저는 UNIST 졸업 데브시스터즈 병특 딥러닝, http://carpedm20.github.io/
  3. 3. 지적 대화를 위한 깊고 넓은 딥러닝
  4. 4. 지적 대화를 위한 깊고 넓은 딥러닝 Deep Learning
  5. 5. 지적 대화를 위한 깊고 넓은 딥러닝 CNN, RNN과 같이 흔한 모델이 아니라, 흥미로운 최신 모델들 1980년 1997년
  6. 6. 지적 대화를 위한 깊고 넓은 딥러닝 1) Deep Convolutional Generative Adversarial Network (DCGAN)
  7. 7. 지적 대화를 위한 깊고 넓은 딥러닝 2) NTM, 3) DQN, 4) Visual Analogy
  8. 8. DCGAN ≠ Classification Model
  9. 9. 내일의 주가를 예측하고, 평점을 예측하며 사진을 구분할 수 있는 모델들 DCGAN ∉ Supervised Learning
  10. 10. DCGAN ∈ Unsupervised Learning Clustering, Anomaly Detection, Generative Models
  11. 11. DCGAN ∈ Generative Model “What I cannot create, I do not understand.” - Richard Feynman
  12. 12. 개와 고양이를 구분하는 모델
  13. 13. 단순히 특징만을 배운 것에 불과
  14. 14. 개와 고양이 사진을 만들 수 있는 모델? Generative Model
  15. 15. 분류 모델보다는 개와 고양이를 제대로 이해하고 있다
  16. 16. 제대로 이해하고 있다면, 개, 고양이의 분류는 쉬운 문제
  17. 17. 이것이 바로 Generative Model이 중요한 이유!
  18. 18. ?
  19. 19. ? celebA DCGAN
  20. 20. 𝑓(𝑧) : 함수를 학습
  21. 21. 𝑓(𝑧) : 함수 𝑧 = 0.4 −0.1 0.2 𝑧 = 0.1 0.4 0.9 𝑧 = - −0.1 0.2 −0.7
  22. 22. 𝑓(𝑧) : 함수 𝑧 = 0.4 −0.1 0.2 𝑧 = 0.1 0.4 0.9 𝑧 = - −0.1 0.2 −0.7
  23. 23. 𝑓(𝑧) : 얼굴 사진을 만드는 궁극의 함수
  24. 24. 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 𝑓(𝑧) : 얼굴 사진을 만드는 궁극의 함수 RGB 이미지
  25. 25. 0 255 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 𝑓(𝑧) = 𝑃(𝑦) : 얼굴 사진을 만드는 궁극의 확률 분포 Probabilistic Distribution RGB 이미지
  26. 26. 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 celebA
  27. 27. 𝑃(𝑦) 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 0 255 픽셀들의 확률 분포
  28. 28. 𝑃(𝑦) 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 0 255
  29. 29. 𝑃(𝑦|𝑧) 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 72 34 187 69 15 187 80 34 187 23 57 187 44 44 187 83 64 187 64 88 187 44 43 187 70 74 187 24 46 187 36 64 187 54 87 187 78 44 187 74 44 187 35 44 187 67 97 187 0 255 0 1 𝑃(𝑧): Gaussian distribution
  30. 30. 𝑃(𝑦|𝑧) 0 255
  31. 31. 0 255 DCGAN 𝑃(𝑦|𝑧)
  32. 32. Deep Convolutional Generative Adversarial Networks
  33. 33. Deep Convolutional Generative Adversarial Networks
  34. 34. 딥러닝 Deep Learning Deep Convolutional Generative Adversarial Networks
  35. 35. ConvNet 이미지 개 or 고양이 Deep Convolutional Generative Adversarial Networks 보통 CNN classification은 이게 전부
  36. 36. 생성 모델 Generative Model 이미지 𝑃(𝑧) 𝑃 𝑦 𝑧 Deep Convolutional Generative Adversarial Networks
  37. 37. 적대적 학습 Adversarial Learning Deep Convolutional Generative Adversarial Networks
  38. 38. 인공 신경망 Neural Network Deep Convolutional Generative Adversarial Networks
  39. 39. DCGAN
  40. 40. DCGAN
  41. 41. DCGAN
  42. 42. DCGAN 구분자 Discriminator Convolution layers
  43. 43. DCGAN
  44. 44. DCGAN 생성자 Generator Deconvolution layers
  45. 45. DCGAN 경찰 진짜를 구분하려는 자 구분자 Discriminator
  46. 46. DCGAN 도둑 가짜를 만들어 속이려는 자 생성자 Generator
  47. 47. DCGAN 도둑 가짜를 만들어 속이려는 자 경찰 진짜를 구분하려는 자 Adversarial Learning
  48. 48. 적대적 학습 Adversarial Learning
  49. 49. 적대적 학습 Adversarial learning 도둑경찰
  50. 50. 적대적 학습 Adversarial learning 도둑경찰 한번에 한번씩 번갈아가며 학습
  51. 51. 1. 경찰의 학습 경찰 → O? X? → X? O? 진짜와 가짜를 구분하는 방법을 학습
  52. 52. 1. 경찰의 학습 경찰 → O? X? → X? O? 진짜와 가짜를 구분하는 방법을 학습 X O
  53. 53. 2. 도둑의 학습 도둑경찰 → O! 경찰을 속이는 사진을 만드는 방법을 학습
  54. 54. 도둑경찰 → O! → O? X? → X? O?
  55. 55. 도둑경찰 → O! → O! → X! 경찰은 점점 진짜와 가짜를 구분하게 되고
  56. 56. 도둑경찰 → O! → O! → X!
  57. 57. 도둑경찰 → O! → O! → X?! 도둑은 점점 진짜같은 가짜를 잘 만들게 된다
  58. 58. 도둑경찰 → O! → O! → X?!
  59. 59. 도둑경찰 → O! → O! → O?!
  60. 60. 도둑경찰 → O! → O! → O?
  61. 61. 도둑경찰 → O! → O! → O!
  62. 62. 도둑경찰 → O! → O! → O!
  63. 63. 도둑경찰 → O! → O! → O!
  64. 64. 네트워크와 함께 설명해 보겠습니다
  65. 65. 구분자 = 경찰 Descriptor
  66. 66. 구분자 = 경찰 OO Descriptor
  67. 67. 구분자 = 경찰 XX Descriptor OO
  68. 68. 구분자 = 경찰 O X 1 1 1 0 0 0 O X 1, 0로 이루어진 벡터를 예측 Descriptor
  69. 69. 생성자 = 도둑 Generator
  70. 70. 생성자 = 도둑 -0.3 -0.1 0.6 Gaussian Distribution Generator 0 1
  71. 71. 생성자 = 도둑 -0.3 -0.1 0.6 X Generator Gaussian Distribution 0 1
  72. 72. 생성자 = 도둑 X X-0.3 -0.1 0.6 평균이 0인 랜덤한 숫자들 Gaussian Distribution Generator
  73. 73. 생성자 = 도둑 X X-0.3 -0.1 0.6 평균이 0인 랜덤한 숫자들 Gaussian Distribution 1 1 1 O X를 O라고 하도록 학습 Generator
  74. 74. 네트워크 구조 Convolution, Deconvolution, Batch Normalization
  75. 75. 구분자 Discriminator 이미지
  76. 76. 구분자 Discriminator Conv 1
  77. 77. 구분자 Discriminator 1 2 3 4 5 6 7 8 3 2 1 0 1 2 3 4 7 11 5 5 1 0 0 1 2×2 kernel 2-strided convolution Conv 1
  78. 78. 구분자 Discriminator 1 2 3 4 5 6 7 8 3 2 1 0 1 2 3 4 7 11 5 5 1 0 0 1 1 2 3 4 5 6 7 8 3 2 1 0 1 2 3 4 6 8 3 4 2×2 max pooling 2×2 kernel 2-strided convolution Downsampling을 하기 위한 용도 Conv 1 Pooling?
  79. 79. 구분자 Discriminator Conv 1 No pooling 4×4의 큰 kernel을 사용해 스스로 최적의 sampling을 배움 1 2 3 4 5 6 7 8 3 2 1 0 1 2 3 4 7 11 5 5 1 0 0 1 1 2 3 4 5 6 7 8 3 2 1 0 1 2 3 4 6 8 3 4 2×2 kernel 2-strided convolution Downsampling을 하기 위한 용도 2×2 max pooling
  80. 80. 구분자 Discriminator Conv 1 4×4 2 strided convolution
  81. 81. 구분자 Discriminator Conv 2 4×4 2 strided convolution
  82. 82. 구분자 Discriminator Conv 3 4×4 2 strided convolution
  83. 83. 구분자 Discriminator Conv 4 4×4 2 strided convolution Reshape
  84. 84. 구분자 Discriminator
  85. 85. 구분자 Discriminator Batch Normalization 이전 layer의 output을 normalize시켜 학습을 가속시키는 방법 http://sanghyukchun.github.io/88/
  86. 86. 구분자 Discriminator LeakyReLU LeakyReLu
  87. 87. 생성자 Generator 𝑧 이미지
  88. 88. 생성자 Generator FC Matrix multiplication (Fully connected)
  89. 89. 생성자 Generator FC Deconv 1 Matrix multiplication (Fully connected)
  90. 90. 생성자 Generator FC Deconv 1 Matrix multiplication (Fully connected)
  91. 91. 생성자 Generator FC Deconv 1 Matrix multiplication (Fully connected)
  92. 92. 생성자 Generator FC Deconv 1 Matrix multiplication (Fully connected) 4×4 2 strided deconvolution
  93. 93. 생성자 Generator Deconv 2 𝑧 4×4 2 strided deconvolution
  94. 94. 생성자 Generator Deconv 3 𝑧 4×4 2 strided deconvolution
  95. 95. 생성자 Generator Deconv 4 𝑧 4×4 2 strided deconvolution
  96. 96. 생성자 Generator
  97. 97. 생성자 Generator Batch Normalization
  98. 98. 생성자 Generator ReLU tanh ReLU tanh
  99. 99. 총 정리 (탕탕)
  100. 100. O
  101. 101. O images Z (Gaussian distribution) 총 2개의 input
  102. 102. O X X
  103. 103. O X 1 1 1 0 0 0 X O X
  104. 104. X X 1 1 1 O
  105. 105. X O X 1 1 1 0 0 0 X 1 1 1 O X O 반복 학습
  106. 106. import tensorflow as tf
  107. 107. 입력값 Inputs
  108. 108. 입력값 Inputs images = tf.placeholder(tf.float32, [32, 84, 84, 3]) O
  109. 109. 입력값 Inputs images = tf.placeholder(tf.float32, [32, 84, 84, 3]) z = tf.placeholder(tf.float32, [32, 100], name='z’) O
  110. 110. 구분자 Discriminator
  111. 111. 구분자 Discriminator h0 = conv2d(images, 64, 4, 4, 2, 2) h0
  112. 112. 구분자 Discriminator h1_logits = batch_norm(conv2d(h0, 64 * 2, 4, 4, 2, 2)) h1 = lrelu(h1_logits) h1
  113. 113. 구분자 Discriminator h2_logits = batch_norm(conv2d(h1, 64 * 4, 4, 4, 2, 2)) h2 = lrelu(h2_logits) h3_logits = batch_norm(conv2d(h2, 64 * 8, 4, 4, 2, 2)) h3 = lrelu(h3_logits) h2 h3
  114. 114. 구분자 Discriminator h4 = linear(tf.reshape(h3, [32, -1]) h4
  115. 115. 생성자 Geneartor
  116. 116. 생성자 Geneartor z_ = linear(z, 64*8*4*4) h0_logits = tf.reshape(z_, [-1, 4, 4, 64 * 8]) z z_
  117. 117. 생성자 Geneartor z_ = linear(z, 64*8*4*4) h0_logits = tf.reshape(z_, [-1, 4, 4, 64 * 8]) h0 = tf.nn.relu(batch_norm(h0_logits)) z z_ h0
  118. 118. 생성자 Geneartor h1_logits = tf.nn.relu(deconv2d(h0, [32, 8, 8, 64*4]) h1 = batch_norm(h1_logits)) h2_logits = tf.nn.relu(deconv2d(h1, [32, 8, 8, 64*4]) h2 = batch_norm(h2_logits)) h1 h2
  119. 119. 생성자 Geneartor h3 = tf.nn.tanh(deconv2d(h2, [32, 8, 8, 64*4])
  120. 120. 적대적 학습 Adversarial Learning
  121. 121. 적대적 학습 Adversarial Learning G = generator(z) X G
  122. 122. 적대적 학습 Adversarial Learning G = generator(z) D = discriminator(images) O D X G
  123. 123. 적대적 학습 Adversarial Learning G = generator(z) D = discriminator(images) D_ = discriminator(G, reuse=True) X O X D_ G D
  124. 124. 적대적 학습 Adversarial Learning d_loss_real = tf.reduce_mean( tf.nn.sigmoid_cross_entropy_with_logits(D, tf.ones_like(D))) X O X G D O d_loss_real
  125. 125. 적대적 학습 Adversarial Learning d_loss_real = tf.reduce_mean( tf.nn.sigmoid_cross_entropy_with_logits(D, tf.ones_like(D))) d_loss_fake = tf.reduce_mean( tf.nn.sigmoid_cross_entropy_with_logits(D_, tf.zeros_like(D_))) X O X X G D_ d_loss_fake
  126. 126. 적대적 학습 Adversarial Learning g_loss = tf.reduce_mean( tf.nn.sigmoid_cross_entropy_with_logits(D_logits_, tf.ones_like(D_))) X X O D_ g_loss
  127. 127. 적대적 학습 Adversarial Learning d_loss = d_loss_real + d_loss_fake
  128. 128. 적대적 학습 Adversarial Learning d_loss = d_loss_real + d_loss_fake d_optim = tf.train.AdamOptimizer(0.0002).minimize(d_loss) g_optim = tf.train.AdamOptimizer(0.0002).minimize(g_loss)
  129. 129. 적대적 학습 Adversarial Learning d_loss = d_loss_real + d_loss_fake d_optim = tf.train.AdamOptimizer(0.0002).minimize(d_loss) g_optim = tf.train.AdamOptimizer(0.0002).minimize(g_loss) while True: sess.run(d_optim, { images: batch_images, z: batch_z }) sess.run(g_optim, { z: batch_z }) 도둑경찰
  130. 130. 학습 결과
  131. 131. MNIST (Real)
  132. 132. MNIST (Fake)
  133. 133. MNIST (Fake)
  134. 134. MNIST (Fake)
  135. 135. CelebA (Real)
  136. 136. CelebA (Fake)
  137. 137. CelebA (Fake)
  138. 138. 한국인 얼굴 데이터
  139. 139. 한국인 얼굴 데이터 (Real)
  140. 140. 한국인 얼굴 데이터 (Real)
  141. 141. 한국인 얼굴 데이터 (Real) 마이크 안경 흑백
  142. 142. 한국인 얼굴 데이터 (Fake)
  143. 143. 한국인 얼굴 데이터 (Fake)
  144. 144. 한국인 얼굴 데이터 (Fake)
  145. 145. 한국인 얼굴 데이터 (Fake)
  146. 146. 한국인 얼굴 데이터 (Fake)
  147. 147. 한국인 얼굴 데이터 (Fake)
  148. 148. 한국인 얼굴 데이터 (Fake)
  149. 149. 한국인 얼굴 데이터 (Fake)
  150. 150. 한국인 얼굴 데이터 (Fake)
  151. 151. https://github.com/carpedm20/DCGAN-tensorflow http://carpedm20.github.io/faces/
  152. 152. Resources • OpenAI’s “Generative Models” blog post • Image Completion with Deep Learning in TensorFlow • A Beginner's Guide to Variational Methods: Mean-Field Approximation
  153. 153. Algorithm Learning
  154. 154. Algorithm Learning 알고리즘의 입력과 출력을 보고 알고리즘을 배울 수 있을까? 3, 1, 2, 5 → 1, 2, 3, 5
  155. 155. Algorithm Learning 알고리즘의 입력과 출력을 보고 알고리즘을 배울 수 있을까? 3, 1, 2, 5 → 1, 2, 3, 5 9, 2, 4, 1 → 1, 2, 4, 9 7, 2, 6, 9 → 2, 6, 7, 9 9, 2, 4, 0 → 0, 2, 4, 9 …
  156. 156. Neural Turing Machine
  157. 157. Neural Turing Machine 뉴럴 네트워크로 튜링 머신을 만들 수 있다면?
  158. 158. 튜링 머신 Turing machine 1 0 0 1 1 0 1 0 Controller Memory
  159. 159. 튜링 머신 Turing machine 1 0 0 1 1 0 1 0 Controller Read Write Memory
  160. 160. 뉴럴 튜링 머신 Neural Turing machine Write Read LSTM CPU LSTM CPU LSTM CPU 0 1 1 0 0 1 1 0 1 0 1 1 0 1 0 1 1 0 1 0 0 1 1 1 0 0 1 1 0 0 Memory
  161. 161. 실행 과정 Write Read LSTM CPU LSTM CPU LSTM CPU 0 1 1 0 0 1 1 0 1 0 1 1 0 1 0 1 1 0 1 0 0 1 1 1 0 0 1 1 0 0 1. 읽고
  162. 162. 실행 과정 Write Read LSTM CPU LSTM CPU LSTM CPU 0 1 1 0 0 1 1 0 1 0 1 1 0 1 0 1 1 0 1 0 0 1 1 1 0 0 1 1 0 0 2. 처리하고
  163. 163. 실행 과정 Write Read LSTM CPU LSTM CPU LSTM CPU 0 1 1 0 0 1 1 0 1 0 1 1 0 1 0 1 1 0 1 0 0 1 1 1 0 0 1 1 0 0 3. 쓴다
  164. 164. t=1 Start symbol
  165. 165. t=2 하나씩 읽어 메모리에 저장
  166. 166. t=3 하나씩 읽어 메모리에 저장
  167. 167. End symbol
  168. 168. 메모리에서 하나씩 읽어서 출력
  169. 169. 메모리에서 하나씩 읽어서 출력
  170. 170. 학습에 보지 않았던 긴 input
  171. 171. https://github.com/carpedm20/NTM-tensorflow
  172. 172. Resources • Neural Turing Machine (in Chinese) • Fancy Addressing for Neural Turing Machines • Neural Turing Machines implementation • Neural Turing Machines ­ A First Look
  173. 173. Deep Q Learning
  174. 174. Deep Q Learning ∈ Reinforcement Learning 인공지능 환경 (게임) action
  175. 175. Deep Q Learning ∈ Reinforcement Learning 인공지능 환경 (게임) actionreward
  176. 176. Deep Q Learning ∈ Reinforcement Learning “AI = Reinforcement Learning + Deep Learning” - David Silver
  177. 177. 더 자세한건… http://www.slideshare.net/carpedm20/ss-63116251
  178. 178. 더 자세한건… http://www.slideshare.net/carpedm20/reinforcement-learning-an-introduction-64037079
  179. 179. https://github.com/carpedm20/deep-rl-tensorflow https://github.com/devsisters/DQN-tensorflow/
  180. 180. Resources • David Silver’s ICML “Reinforcement Learning tutorial” • Demystifying Deep Reinforcement Learning • Playing Atari With Deep Reinforcement Learning
  181. 181. Deep Visual Analogy-Making
  182. 182. Deep Visual Analogy-Making 이미지 버전의 '왕 - 남자 + 여자 = 여왕’ (word2vec)
  183. 183. A → B : C → ? →
  184. 184. A → B : C → ? :→ → A에서 B의 변화를 C에 적용하면?
  185. 185. A → B : C → ? :→ → A에서 B의 변화를 C에 적용하면?
  186. 186. A → B : C → ? A B
  187. 187. A → B : C → ? A B C 회전한 이미지를 보고
  188. 188. A → B : C → ? A B C D 회전 1번
  189. 189. A → B : C → ? A B C D D` 회전 2번
  190. 190. A → B : C → ? A B C D D` 확대, 축소
  191. 191. A → B : C → ? A B C D D` x, y 축 이동
  192. 192. A → B : C → ?
  193. 193. A → B : C → ?
  194. 194. A → B : C → ?
  195. 195. https://github.com/carpedm20/visual-analogy-tensorflow
  196. 196. 지금까지 제가 구현한 논문은 • Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks • Deep Visual Analogy-Making • Pixel Recurrent Neural Networks Computer Vision
  197. 197. 지금까지 제가 구현한 논문은 Natural Language Processing • Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks • Deep Visual Analogy-Making • Pixel Recurrent Neural Networks • End-To-End Memory Networks • Neural Variational Inference for Text Processing • Character-Aware Neural Language Models • Teaching Machines to Read and Comprehend Computer Vision
  198. 198. 지금까지 제가 구현한 논문은 Natural Language Processing Reinforcement Learning • Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks • Deep Visual Analogy-Making • Pixel Recurrent Neural Networks • End-To-End Memory Networks • Neural Variational Inference for Text Processing • Character-Aware Neural Language Models • Teaching Machines to Read and Comprehend • Playing Atari with Deep Reinforcement Learning • Human-level control through deep reinforcement learning • Deep Reinforcement Learning with Double Q-learning • Dueling Network Architectures for Deep Reinforcement Learning • Language Understanding for Text-based Games Using Deep Reinforcement Learning • Asynchronous Methods for Deep Reinforcement Learning • Continuous Deep q-Learning with Model-based Acceleration Computer Vision
  199. 199. 지금까지 제가 구현한 논문은 Algorithm Learning Natural Language Processing Reinforcement Learning • Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks • Deep Visual Analogy-Making • Pixel Recurrent Neural Networks • End-To-End Memory Networks • Neural Variational Inference for Text Processing • Character-Aware Neural Language Models • Teaching Machines to Read and Comprehend • Playing Atari with Deep Reinforcement Learning • Human-level control through deep reinforcement learning • Deep Reinforcement Learning with Double Q-learning • Dueling Network Architectures for Deep Reinforcement Learning • Language Understanding for Text-based Games Using Deep Reinforcement Learning • Asynchronous Methods for Deep Reinforcement Learning • Continuous Deep q-Learning with Model-based Acceleration • Neural Turing Machines Computer Vision
  200. 200. 재미있었던 논문은 Algorithm Learning Natural Language Processing Reinforcement Learning • Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks • Deep Visual Analogy-Making • Pixel Recurrent Neural Networks • End-To-End Memory Networks • Neural Variational Inference for Text Processing • Character-Aware Neural Language Models • Teaching Machines to Read and Comprehend • Playing Atari with Deep Reinforcement Learning • Human-level control through deep reinforcement learning • Deep Reinforcement Learning with Double Q-learning • Dueling Network Architectures for Deep Reinforcement Learning • Language Understanding for Text-based Games Using Deep Reinforcement Learning • Asynchronous Methods for Deep Reinforcement Learning • Continuous Deep q-Learning with Model-based Acceleration • Neural Turing Machines Computer Vision
  201. 201. 각 모델들은 Algorithm Learning Natural Language Processing Reinforcement Learning • 이미지(사람의 얼굴 사진)을 이해하고 스스로 만드는 모델 • 이미지 버전의 '왕 - 남자 + 여자 = 여왕’ • 이미지를 이해하고 픽셀 하나씩 만들어가는 모델 • Question Answering, Language Model • Neural Variational Inference for Text Processing • Character-level Language Models with CNN • Question Answering • Atari 게임을 화면의 픽셀만 보고 배우는 딥러닝 모델 (최초) • Atari 게임을 화면의 픽셀만 보고 배우는 딥러닝 모델 (Nature 논문) • Double Q-Learning로 Atari 게임을 더 잘 플레이하는 모델 • Dueling Network로 Atari 게임을 더 잘 플레이하는 모델 • 텍스트 게임을 강화학습으로 배우는 모델 • Asynchronous 학습으로 빠르게 로 Atari 게임을 학습하는 모델 • Atari 게임과 같이 discrete한 action이 아닌 환경을 잘 학습하는 모델 • 뉴럴 튜링 머신 Computer Vision
  202. 202. 모든 코드는 Github에 • https://github.com/carpedm20/DCGAN-tensorflow • https://github.com/carpedm20/visual-analogy-tensorflow • https://github.com/carpedm20/pixel-rnn-tensorflow/ • https://github.com/carpedm20/MemN2N-tensorflow • https://github.com/carpedm20/variational-text-tensorflow • https://github.com/carpedm20/lstm-char-cnn-tensorflow • https://github.com/carpedm20/attentive-reader-tensorflow • https://github.com/devsisters/DQN-tensorflow • https://github.com/devsisters/DQN-tensorflow • https://github.com/carpedm20/deep-rl-tensorflow • https://github.com/carpedm20/deep-rl-tensorflow • https://github.com/carpedm20/text-based-game-rl-tensorflow • https://github.com/devsisters/async-rl-tensorflow • https://github.com/carpedm20/NAF-tensorflow/ • https://github.com/carpedm20/NTM-tensorflow 580+ 210+ 80+ 180+ 330+ 170+ 100+ 410+ 370+ 40+ 20+ 330+
  203. 203. 마지막으로.. x
  204. 204. 로 오세요 :) http://www.devsisters.com/jobs/
  205. 205. 감사합니다 http://carpedm20.github.io/

×