SlideShare a Scribd company logo
1 of 218
Download to read offline
지적 대화를 위한
깊고 넓은 딥러닝
김태훈
carpedm20
저는
UNIST 졸업
데브시스터즈 병특
딥러닝,
http://carpedm20.github.io/
지적 대화를 위한
깊고 넓은 딥러닝
지적 대화를 위한
깊고 넓은 딥러닝
Deep	Learning
지적 대화를 위한
깊고 넓은 딥러닝
CNN,	RNN과 같이 흔한 모델이 아니라, 흥미로운 최신 모델들
1980년 1997년
지적 대화를 위한
깊고 넓은 딥러닝
1) Deep	Convolutional	Generative	Adversarial	Network
(DCGAN)
지적 대화를 위한
깊고 넓은 딥러닝
2)	NTM,	3)	DQN,	4)	Visual	Analogy
DCGAN ≠ Classification	Model
내일의 주가를 예측하고, 평점을 예측하며 사진을 구분할 수 있는 모델들
DCGAN ∉ Supervised	Learning
DCGAN ∈ Unsupervised	Learning
Clustering, Anomaly Detection, Generative Models
DCGAN ∈ Generative	Model
“What	I	cannot	create,	I	do	not	understand.”
- Richard	Feynman
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
개와 고양이를 구분하는 모델
단순히 특징만을 배운 것에 불과
개와 고양이 사진을 만들 수 있는 모델?
Generative	Model
분류 모델보다는 개와 고양이를 제대로 이해하고 있다
제대로 이해하고 있다면, 개, 고양이의 분류는 쉬운 문제
이것이 바로
Generative	Model이 중요한 이유!
?
?
celebA
DCGAN
𝑓(𝑧) : 함수를 학습
𝑓(𝑧) : 함수
𝑧 =
0.4
−0.1
0.2
𝑧 =
0.1
0.4
0.9 𝑧 = -
−0.1
0.2
−0.7
𝑓(𝑧) : 함수
𝑧 =
0.4
−0.1
0.2
𝑧 =
0.1
0.4
0.9 𝑧 = -
−0.1
0.2
−0.7
𝑓(𝑧) : 얼굴 사진을 만드는 궁극의 함수
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
𝑓(𝑧) : 얼굴 사진을 만드는 궁극의 함수
RGB 이미지
0
255
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
𝑓(𝑧) = 𝑃(𝑦) : 얼굴 사진을 만드는 궁극의 확률 분포
Probabilistic	Distribution
RGB 이미지
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
celebA
𝑃(𝑦)
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
0
255
픽셀들의 확률 분포
𝑃(𝑦)
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
0
255
𝑃(𝑦|𝑧)
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
0
255
0
1
𝑃(𝑧):	Gaussian	distribution
𝑃(𝑦|𝑧)
0
255
0
255
DCGAN
𝑃(𝑦|𝑧)
Deep
Convolutional
Generative
Adversarial
Networks
Deep
Convolutional
Generative
Adversarial
Networks
딥러닝
Deep	Learning
Deep
Convolutional
Generative
Adversarial
Networks
ConvNet
이미지
개 or 고양이
Deep
Convolutional
Generative
Adversarial
Networks
보통 CNN classification은 이게 전부
생성 모델
Generative	Model
이미지
𝑃(𝑧)
𝑃 𝑦 𝑧
Deep
Convolutional
Generative
Adversarial
Networks
적대적 학습
Adversarial	Learning
Deep
Convolutional
Generative
Adversarial
Networks
인공 신경망
Neural	Network
Deep
Convolutional
Generative
Adversarial
Networks
DCGAN
DCGAN
DCGAN
DCGAN
구분자
Discriminator
Convolution	layers
DCGAN
DCGAN
생성자
Generator
Deconvolution	layers
DCGAN
경찰
진짜를 구분하려는 자
구분자
Discriminator
DCGAN
도둑
가짜를 만들어 속이려는 자
생성자
Generator
DCGAN
도둑
가짜를 만들어 속이려는 자
경찰
진짜를 구분하려는 자
Adversarial	Learning
적대적 학습
Adversarial	Learning
적대적 학습
Adversarial	learning
도둑경찰
적대적 학습
Adversarial	learning
도둑경찰
한번에 한번씩 번갈아가며 학습
1. 경찰의 학습
경찰
→ O? X?
→ X? O?
진짜와 가짜를 구분하는 방법을 학습
1. 경찰의 학습
경찰
→ O? X?
→ X? O?
진짜와 가짜를 구분하는 방법을 학습
X
O
2. 도둑의 학습
도둑경찰
→ O!
경찰을 속이는 사진을 만드는 방법을 학습
도둑경찰
→ O!
→ O? X?
→ X? O?
도둑경찰
→ O!
→ O!
→ X!
경찰은 점점 진짜와 가짜를 구분하게 되고
도둑경찰
→ O!
→ O!
→ X!
도둑경찰
→ O!
→ O!
→ X?!
도둑은 점점 진짜같은 가짜를 잘 만들게 된다
도둑경찰
→ O!
→ O!
→ X?!
도둑경찰
→ O!
→ O!
→ O?!
도둑경찰
→ O!
→ O!
→ O?
도둑경찰
→ O!
→ O!
→ O!
도둑경찰
→ O!
→ O!
→ O!
도둑경찰
→ O!
→ O!
→ O!
네트워크와 함께 설명해 보겠습니다
구분자 = 경찰
Descriptor
구분자 = 경찰
OO
Descriptor
구분자 = 경찰
XX
Descriptor
OO
구분자 = 경찰
O
X
1
1
1
0
0
0
O
X
1, 0로 이루어진 벡터를 예측
Descriptor
생성자 = 도둑
Generator
생성자 = 도둑
-0.3
-0.1
0.6
Gaussian	Distribution
Generator
0
1
생성자 = 도둑
-0.3
-0.1
0.6
X
Generator
Gaussian	Distribution
0
1
생성자 = 도둑
X
X-0.3
-0.1
0.6
평균이 0인 랜덤한 숫자들
Gaussian	Distribution
Generator
생성자 = 도둑
X
X-0.3
-0.1
0.6
평균이 0인 랜덤한 숫자들
Gaussian	Distribution
1
1
1
O
X를 O라고 하도록 학습
Generator
네트워크 구조
Convolution,	Deconvolution,	Batch	Normalization
구분자
Discriminator
이미지
구분자
Discriminator
Conv	1
구분자
Discriminator
1 2 3 4
5 6 7 8
3 2 1 0
1 2 3 4
7 11
5 5
1 0
0 1
2×2 kernel
2-strided	convolution
Conv	1
구분자
Discriminator
1 2 3 4
5 6 7 8
3 2 1 0
1 2 3 4
7 11
5 5
1 0
0 1
1 2 3 4
5 6 7 8
3 2 1 0
1 2 3 4
6 8
3 4
2×2 max	pooling
2×2 kernel
2-strided	convolution
Downsampling을
하기 위한 용도
Conv	1
Pooling?
구분자
Discriminator
Conv	1
No	pooling
4×4의 큰 kernel을 사용해 스스로 최적의 sampling을 배움
1 2 3 4
5 6 7 8
3 2 1 0
1 2 3 4
7 11
5 5
1 0
0 1
1 2 3 4
5 6 7 8
3 2 1 0
1 2 3 4
6 8
3 4
2×2 kernel
2-strided	convolution
Downsampling을
하기 위한 용도
2×2 max	pooling
구분자
Discriminator
Conv	1
4×4 2	strided	convolution
구분자
Discriminator
Conv	2
4×4 2	strided	convolution
구분자
Discriminator
Conv	3
4×4 2	strided	convolution
구분자
Discriminator
Conv	4
4×4 2	strided	convolution
Reshape
구분자
Discriminator
구분자
Discriminator
Batch	Normalization
이전 layer의 output을 normalize시켜 학습을 가속시키는 방법
http://sanghyukchun.github.io/88/
구분자
Discriminator
LeakyReLU
LeakyReLu
생성자
Generator
𝑧
이미지
생성자
Generator
FC
Matrix	multiplication
(Fully	connected)
생성자
Generator
FC Deconv	1
Matrix	multiplication
(Fully	connected)
생성자
Generator
FC Deconv	1
Matrix	multiplication
(Fully	connected)
생성자
Generator
FC Deconv	1
Matrix	multiplication
(Fully	connected)
생성자
Generator
FC Deconv	1
Matrix	multiplication
(Fully	connected)
4×4 2	strided	deconvolution
생성자
Generator
Deconv	2
𝑧
4×4 2	strided	deconvolution
생성자
Generator
Deconv	3
𝑧
4×4 2	strided	deconvolution
생성자
Generator
Deconv	4
𝑧
4×4 2	strided	deconvolution
생성자
Generator
생성자
Generator
Batch	Normalization
생성자
Generator
ReLU
tanh
ReLU tanh
총 정리
(탕탕)
O
O
images
Z	(Gaussian	distribution)
총 2개의 input
O
X
X
O
X
1
1
1
0
0
0
X
O
X
X
X
1
1
1
O
X
O
X
1
1
1
0
0
0
X
1
1
1
O
X
O
반복
학습
import tensorflow as tf
입력값
Inputs
입력값
Inputs
images = tf.placeholder(tf.float32, [32, 84, 84, 3])
O
입력값
Inputs
images = tf.placeholder(tf.float32, [32, 84, 84, 3])
z = tf.placeholder(tf.float32, [32, 100], name='z’)
O
구분자
Discriminator
구분자
Discriminator
h0 = conv2d(images, 64, 4, 4, 2, 2)
h0
구분자
Discriminator
h1_logits = batch_norm(conv2d(h0, 64 * 2, 4, 4, 2, 2))
h1 = lrelu(h1_logits)
h1
구분자
Discriminator
h2_logits = batch_norm(conv2d(h1, 64 * 4, 4, 4, 2, 2))
h2 = lrelu(h2_logits)
h3_logits = batch_norm(conv2d(h2, 64 * 8, 4, 4, 2, 2))
h3 = lrelu(h3_logits)
h2 h3
구분자
Discriminator
h4 = linear(tf.reshape(h3, [32, -1])
h4
생성자
Geneartor
생성자
Geneartor
z_ = linear(z, 64*8*4*4)
h0_logits = tf.reshape(z_, [-1, 4, 4, 64 * 8])
z z_
생성자
Geneartor
z_ = linear(z, 64*8*4*4)
h0_logits = tf.reshape(z_, [-1, 4, 4, 64 * 8])
h0 = tf.nn.relu(batch_norm(h0_logits))
z z_ h0
생성자
Geneartor
h1_logits = tf.nn.relu(deconv2d(h0, [32, 8, 8, 64*4])
h1 = batch_norm(h1_logits))
h2_logits = tf.nn.relu(deconv2d(h1, [32, 8, 8, 64*4])
h2 = batch_norm(h2_logits))
h1
h2
생성자
Geneartor
h3 = tf.nn.tanh(deconv2d(h2, [32, 8, 8, 64*4])
적대적 학습
Adversarial	Learning
적대적 학습
Adversarial	Learning
G = generator(z)
X G
적대적 학습
Adversarial	Learning
G = generator(z)
D = discriminator(images)
O
D
X G
적대적 학습
Adversarial	Learning
G = generator(z)
D = discriminator(images)
D_ = discriminator(G, reuse=True)
X
O
X
D_
G
D
적대적 학습
Adversarial	Learning
d_loss_real = tf.reduce_mean(
tf.nn.sigmoid_cross_entropy_with_logits(D, tf.ones_like(D)))
X
O
X G
D
O
d_loss_real
적대적 학습
Adversarial	Learning
d_loss_real = tf.reduce_mean(
tf.nn.sigmoid_cross_entropy_with_logits(D, tf.ones_like(D)))
d_loss_fake = tf.reduce_mean(
tf.nn.sigmoid_cross_entropy_with_logits(D_, tf.zeros_like(D_)))
X
O
X
X
G
D_
d_loss_fake
적대적 학습
Adversarial	Learning
g_loss = tf.reduce_mean(
tf.nn.sigmoid_cross_entropy_with_logits(D_logits_, tf.ones_like(D_)))
X
X
O
D_
g_loss
적대적 학습
Adversarial	Learning
d_loss = d_loss_real + d_loss_fake
적대적 학습
Adversarial	Learning
d_loss = d_loss_real + d_loss_fake
d_optim = tf.train.AdamOptimizer(0.0002).minimize(d_loss)
g_optim = tf.train.AdamOptimizer(0.0002).minimize(g_loss)
적대적 학습
Adversarial	Learning
d_loss = d_loss_real + d_loss_fake
d_optim = tf.train.AdamOptimizer(0.0002).minimize(d_loss)
g_optim = tf.train.AdamOptimizer(0.0002).minimize(g_loss)
while True:
sess.run(d_optim, { images: batch_images, z: batch_z })
sess.run(g_optim, { z: batch_z })
도둑경찰
학습 결과
MNIST
(Real)
MNIST
(Fake)
MNIST
(Fake)
MNIST
(Fake)
CelebA
(Real)
CelebA
(Fake)
CelebA
(Fake)
한국인 얼굴 데이터
한국인 얼굴 데이터
(Real)
한국인 얼굴 데이터
(Real)
한국인 얼굴 데이터
(Real)
마이크 안경 흑백
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
https://github.com/carpedm20/DCGAN-tensorflow
http://carpedm20.github.io/faces/
Resources
• OpenAI’s “Generative Models” blog post
• Image Completion with Deep Learning in TensorFlow
• A Beginner's Guide to Variational Methods: Mean-Field
Approximation
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
Algorithm	Learning
Algorithm	Learning
알고리즘의 입력과 출력을 보고 알고리즘을 배울 수 있을까?
3, 1, 2, 5 → 1,	2,	3,	5
Algorithm	Learning
알고리즘의 입력과 출력을 보고 알고리즘을 배울 수 있을까?
3, 1, 2, 5 → 1,	2,	3,	5
9, 2, 4, 1 → 1,	2,	4,	9
7, 2, 6, 9 → 2,	6,	7,	9
9, 2, 4, 0 → 0,	2,	4,	9
…
Neural	Turing	Machine
Neural	Turing	Machine
뉴럴 네트워크로 튜링 머신을 만들 수 있다면?
튜링 머신
Turing	machine
1 0 0 1 1 0 1 0
Controller
Memory
튜링 머신
Turing	machine
1 0 0 1 1 0 1 0
Controller
Read Write
Memory
뉴럴 튜링 머신
Neural	Turing	machine
Write
Read
LSTM
CPU
LSTM
CPU
LSTM
CPU
0 1 1 0 0 1 1 0 1 0
1 1 0 1 0 1 1 0 1 0
0 1 1 1 0 0 1 1 0 0
Memory
실행 과정
Write
Read
LSTM
CPU
LSTM
CPU
LSTM
CPU
0 1 1 0 0 1 1 0 1 0
1 1 0 1 0 1 1 0 1 0
0 1 1 1 0 0 1 1 0 0
1. 읽고
실행 과정
Write
Read
LSTM
CPU
LSTM
CPU
LSTM
CPU
0 1 1 0 0 1 1 0 1 0
1 1 0 1 0 1 1 0 1 0
0 1 1 1 0 0 1 1 0 0
2. 처리하고
실행 과정
Write
Read
LSTM
CPU
LSTM
CPU
LSTM
CPU
0 1 1 0 0 1 1 0 1 0
1 1 0 1 0 1 1 0 1 0
0 1 1 1 0 0 1 1 0 0
3. 쓴다
t=1
Start	symbol
t=2
하나씩 읽어 메모리에 저장
t=3
하나씩 읽어 메모리에 저장
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
End	symbol
메모리에서 하나씩 읽어서 출력
메모리에서 하나씩 읽어서 출력
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
학습에 보지 않았던 긴 input
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
https://github.com/carpedm20/NTM-tensorflow
Resources
• Neural Turing Machine (in Chinese)
• Fancy Addressing for Neural Turing Machines
• Neural Turing Machines implementation
• Neural Turing Machines ­ A First Look
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
Deep	Q	Learning
Deep	Q	Learning
∈ Reinforcement	Learning
인공지능
환경 (게임)
action
Deep	Q	Learning
∈ Reinforcement	Learning
인공지능
환경 (게임)
actionreward
Deep	Q	Learning
∈ Reinforcement	Learning
“AI	=	Reinforcement	Learning	+	Deep	Learning”
- David	Silver
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
더 자세한건…
http://www.slideshare.net/carpedm20/ss-63116251
더 자세한건…
http://www.slideshare.net/carpedm20/reinforcement-learning-an-introduction-64037079
https://github.com/carpedm20/deep-rl-tensorflow
https://github.com/devsisters/DQN-tensorflow/
Resources
• David Silver’s ICML “Reinforcement Learning tutorial”
• Demystifying Deep Reinforcement Learning
• Playing Atari With Deep Reinforcement Learning
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
Deep	Visual	Analogy-Making
Deep	Visual	Analogy-Making
이미지 버전의 '왕 - 남자 + 여자 = 여왕’ (word2vec)
A → B : C → ?
→
A → B : C → ?
:→ →
A에서 B의 변화를 C에 적용하면?
A → B : C → ?
:→ →
A에서 B의 변화를 C에 적용하면?
A → B : C → ?
A
B
A → B : C → ?
A
B
C
회전한 이미지를 보고
A → B : C → ?
A
B
C
D
회전 1번
A → B : C → ?
A
B
C
D
D`
회전 2번
A → B : C → ?
A
B
C
D
D`
확대, 축소
A → B : C → ?
A
B
C
D
D`
x, y 축 이동
A → B : C → ?
A → B : C → ?
A → B : C → ?
https://github.com/carpedm20/visual-analogy-tensorflow
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지금까지 제가 구현한 논문은
• Unsupervised	Representation	Learning	with	Deep	Convolutional	Generative	Adversarial	Networks
• Deep	Visual	Analogy-Making
• Pixel	Recurrent	Neural	Networks Computer	Vision
지금까지 제가 구현한 논문은
Natural	Language	Processing
• Unsupervised	Representation	Learning	with	Deep	Convolutional	Generative	Adversarial	Networks
• Deep	Visual	Analogy-Making
• Pixel	Recurrent	Neural	Networks
• End-To-End	Memory	Networks
• Neural	Variational	Inference	for	Text	Processing
• Character-Aware	Neural	Language	Models
• Teaching	Machines	to	Read	and	Comprehend
Computer	Vision
지금까지 제가 구현한 논문은
Natural	Language	Processing
Reinforcement	Learning
• Unsupervised	Representation	Learning	with	Deep	Convolutional	Generative	Adversarial	Networks
• Deep	Visual	Analogy-Making
• Pixel	Recurrent	Neural	Networks
• End-To-End	Memory	Networks
• Neural	Variational	Inference	for	Text	Processing
• Character-Aware	Neural	Language	Models
• Teaching	Machines	to	Read	and	Comprehend
• Playing	Atari	with	Deep	Reinforcement	Learning
• Human-level	control	through	deep	reinforcement	learning
• Deep	Reinforcement	Learning	with	Double	Q-learning
• Dueling	Network	Architectures	for	Deep	Reinforcement	Learning
• Language	Understanding	for	Text-based	Games	Using	Deep	Reinforcement	Learning
• Asynchronous	Methods	for	Deep	Reinforcement	Learning
• Continuous	Deep	q-Learning	with	Model-based	Acceleration
Computer	Vision
지금까지 제가 구현한 논문은
Algorithm	Learning
Natural	Language	Processing
Reinforcement	Learning
• Unsupervised	Representation	Learning	with	Deep	Convolutional	Generative	Adversarial	Networks
• Deep	Visual	Analogy-Making
• Pixel	Recurrent	Neural	Networks
• End-To-End	Memory	Networks
• Neural	Variational	Inference	for	Text	Processing
• Character-Aware	Neural	Language	Models
• Teaching	Machines	to	Read	and	Comprehend
• Playing	Atari	with	Deep	Reinforcement	Learning
• Human-level	control	through	deep	reinforcement	learning
• Deep	Reinforcement	Learning	with	Double	Q-learning
• Dueling	Network	Architectures	for	Deep	Reinforcement	Learning
• Language	Understanding	for	Text-based	Games	Using	Deep	Reinforcement	Learning
• Asynchronous	Methods	for	Deep	Reinforcement	Learning
• Continuous	Deep	q-Learning	with	Model-based	Acceleration
• Neural	Turing	Machines
Computer	Vision
재미있었던 논문은
Algorithm	Learning
Natural	Language	Processing
Reinforcement	Learning
• Unsupervised	Representation	Learning	with	Deep	Convolutional	Generative	Adversarial	Networks
• Deep	Visual	Analogy-Making
• Pixel	Recurrent	Neural	Networks
• End-To-End	Memory	Networks
• Neural	Variational	Inference	for	Text	Processing
• Character-Aware	Neural	Language	Models
• Teaching	Machines	to	Read	and	Comprehend
• Playing	Atari	with	Deep	Reinforcement	Learning
• Human-level	control	through	deep	reinforcement	learning
• Deep	Reinforcement	Learning	with	Double	Q-learning
• Dueling	Network	Architectures	for	Deep	Reinforcement	Learning
• Language	Understanding	for	Text-based	Games	Using	Deep	Reinforcement	Learning
• Asynchronous	Methods	for	Deep	Reinforcement	Learning
• Continuous	Deep	q-Learning	with	Model-based	Acceleration
• Neural	Turing	Machines
Computer	Vision
각 모델들은
Algorithm	Learning
Natural	Language	Processing
Reinforcement	Learning
• 이미지(사람의 얼굴 사진)을 이해하고 스스로 만드는 모델
• 이미지 버전의 '왕 - 남자 + 여자 = 여왕’
• 이미지를 이해하고 픽셀 하나씩 만들어가는 모델
• Question Answering, Language Model
• Neural Variational Inference for Text Processing
• Character-level Language Models with CNN
• Question Answering
• Atari 게임을 화면의 픽셀만 보고 배우는 딥러닝 모델 (최초)
• Atari 게임을 화면의 픽셀만 보고 배우는 딥러닝 모델 (Nature 논문)
• Double Q-Learning로 Atari 게임을 더 잘 플레이하는 모델
• Dueling Network로 Atari 게임을 더 잘 플레이하는 모델
• 텍스트 게임을 강화학습으로 배우는 모델
• Asynchronous 학습으로 빠르게 로 Atari 게임을 학습하는 모델
• Atari 게임과 같이 discrete한 action이 아닌 환경을 잘 학습하는 모델
• 뉴럴 튜링 머신
Computer	Vision
모든 코드는 Github에
• https://github.com/carpedm20/DCGAN-tensorflow
• https://github.com/carpedm20/visual-analogy-tensorflow
• https://github.com/carpedm20/pixel-rnn-tensorflow/
• https://github.com/carpedm20/MemN2N-tensorflow
• https://github.com/carpedm20/variational-text-tensorflow
• https://github.com/carpedm20/lstm-char-cnn-tensorflow
• https://github.com/carpedm20/attentive-reader-tensorflow
• https://github.com/devsisters/DQN-tensorflow
• https://github.com/devsisters/DQN-tensorflow
• https://github.com/carpedm20/deep-rl-tensorflow
• https://github.com/carpedm20/deep-rl-tensorflow
• https://github.com/carpedm20/text-based-game-rl-tensorflow
• https://github.com/devsisters/async-rl-tensorflow
• https://github.com/carpedm20/NAF-tensorflow/
• https://github.com/carpedm20/NTM-tensorflow
580+
210+
80+
180+
330+
170+
100+
410+
370+
40+
20+
330+
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
마지막으로.. x
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
로 오세요 :)
http://www.devsisters.com/jobs/
감사합니다
http://carpedm20.github.io/

More Related Content

What's hot

머신러닝 해외 취업 준비: 닳고 닳은 이력서와 고통스러웠던 면접을 돌아보며 SNU 2018
머신러닝 해외 취업 준비: 닳고 닳은 이력서와 고통스러웠던 면접을 돌아보며 SNU 2018머신러닝 해외 취업 준비: 닳고 닳은 이력서와 고통스러웠던 면접을 돌아보며 SNU 2018
머신러닝 해외 취업 준비: 닳고 닳은 이력서와 고통스러웠던 면접을 돌아보며 SNU 2018Taehoon Kim
 
Introduction of Deep Reinforcement Learning
Introduction of Deep Reinforcement LearningIntroduction of Deep Reinforcement Learning
Introduction of Deep Reinforcement LearningNAVER Engineering
 
알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리Shane (Seungwhan) Moon
 
[系列活動] 一日搞懂生成式對抗網路
[系列活動] 一日搞懂生成式對抗網路[系列活動] 一日搞懂生成式對抗網路
[系列活動] 一日搞懂生成式對抗網路台灣資料科學年會
 
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)WON JOON YOO
 
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017Taehoon Kim
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기NAVER Engineering
 
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링Taehoon Kim
 
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기JungHyun Hong
 
알아두면 쓸데있는 신비한 딥러닝 이야기
알아두면 쓸데있는 신비한 딥러닝 이야기알아두면 쓸데있는 신비한 딥러닝 이야기
알아두면 쓸데있는 신비한 딥러닝 이야기Kwangsik Lee
 
강화 학습 기초 Reinforcement Learning an introduction
강화 학습 기초 Reinforcement Learning an introduction강화 학습 기초 Reinforcement Learning an introduction
강화 학습 기초 Reinforcement Learning an introductionTaehoon Kim
 
Introduction to SAC(Soft Actor-Critic)
Introduction to SAC(Soft Actor-Critic)Introduction to SAC(Soft Actor-Critic)
Introduction to SAC(Soft Actor-Critic)Suhyun Cho
 
Graph Convolutional Neural Networks
Graph Convolutional Neural Networks Graph Convolutional Neural Networks
Graph Convolutional Neural Networks 신동 강
 
Wasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 IWasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 ISungbin Lim
 
강화학습 기초_2(Deep sarsa, Deep Q-learning, DQN)
강화학습 기초_2(Deep sarsa, Deep Q-learning, DQN)강화학습 기초_2(Deep sarsa, Deep Q-learning, DQN)
강화학습 기초_2(Deep sarsa, Deep Q-learning, DQN)Euijin Jeong
 
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?Yongho Ha
 
쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전Modulabs
 
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?Yongho Ha
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기Woong won Lee
 

What's hot (20)

머신러닝 해외 취업 준비: 닳고 닳은 이력서와 고통스러웠던 면접을 돌아보며 SNU 2018
머신러닝 해외 취업 준비: 닳고 닳은 이력서와 고통스러웠던 면접을 돌아보며 SNU 2018머신러닝 해외 취업 준비: 닳고 닳은 이력서와 고통스러웠던 면접을 돌아보며 SNU 2018
머신러닝 해외 취업 준비: 닳고 닳은 이력서와 고통스러웠던 면접을 돌아보며 SNU 2018
 
Introduction of Deep Reinforcement Learning
Introduction of Deep Reinforcement LearningIntroduction of Deep Reinforcement Learning
Introduction of Deep Reinforcement Learning
 
알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리
 
[系列活動] 一日搞懂生成式對抗網路
[系列活動] 一日搞懂生成式對抗網路[系列活動] 一日搞懂生成式對抗網路
[系列活動] 一日搞懂生成式對抗網路
 
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
 
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
 
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
 
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
 
알아두면 쓸데있는 신비한 딥러닝 이야기
알아두면 쓸데있는 신비한 딥러닝 이야기알아두면 쓸데있는 신비한 딥러닝 이야기
알아두면 쓸데있는 신비한 딥러닝 이야기
 
강화 학습 기초 Reinforcement Learning an introduction
강화 학습 기초 Reinforcement Learning an introduction강화 학습 기초 Reinforcement Learning an introduction
강화 학습 기초 Reinforcement Learning an introduction
 
Introduction to SAC(Soft Actor-Critic)
Introduction to SAC(Soft Actor-Critic)Introduction to SAC(Soft Actor-Critic)
Introduction to SAC(Soft Actor-Critic)
 
Graph Convolutional Neural Networks
Graph Convolutional Neural Networks Graph Convolutional Neural Networks
Graph Convolutional Neural Networks
 
Wasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 IWasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 I
 
강화학습 기초_2(Deep sarsa, Deep Q-learning, DQN)
강화학습 기초_2(Deep sarsa, Deep Q-learning, DQN)강화학습 기초_2(Deep sarsa, Deep Q-learning, DQN)
강화학습 기초_2(Deep sarsa, Deep Q-learning, DQN)
 
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
 
쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전
 
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기
 
그림 그리는 AI
그림 그리는 AI그림 그리는 AI
그림 그리는 AI
 

Viewers also liked

Differentiable Neural Computer
Differentiable Neural ComputerDifferentiable Neural Computer
Differentiable Neural ComputerTaehoon Kim
 
A pixel to-pixel segmentation method of DILD without masks using CNN and perl...
A pixel to-pixel segmentation method of DILD without masks using CNN and perl...A pixel to-pixel segmentation method of DILD without masks using CNN and perl...
A pixel to-pixel segmentation method of DILD without masks using CNN and perl...남주 김
 
Convolutional neural network in practice
Convolutional neural network in practiceConvolutional neural network in practice
Convolutional neural network in practice남주 김
 
Variational inference intro. (korean ver.)
Variational inference intro. (korean ver.)Variational inference intro. (korean ver.)
Variational inference intro. (korean ver.)Kiho Hong
 
Generative adversarial networks
Generative adversarial networksGenerative adversarial networks
Generative adversarial networks남주 김
 
네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙
네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙
네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙NAVER Engineering
 
네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한
네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한
네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한NAVER Engineering
 
네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정
네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정
네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정NAVER Engineering
 
Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)Tae Young Lee
 
20141223 머하웃(mahout) 협업필터링_추천시스템구현
20141223 머하웃(mahout) 협업필터링_추천시스템구현20141223 머하웃(mahout) 협업필터링_추천시스템구현
20141223 머하웃(mahout) 협업필터링_추천시스템구현Tae Young Lee
 
Scala dreaded underscore
Scala dreaded underscoreScala dreaded underscore
Scala dreaded underscoreRUDDER
 
카카오스토리 웹팀의 코드리뷰 경험
카카오스토리 웹팀의 코드리뷰 경험카카오스토리 웹팀의 코드리뷰 경험
카카오스토리 웹팀의 코드리뷰 경험Ohgyun Ahn
 
Docker (Compose) 활용 - 개발 환경 구성하기
Docker (Compose) 활용 - 개발 환경 구성하기Docker (Compose) 활용 - 개발 환경 구성하기
Docker (Compose) 활용 - 개발 환경 구성하기raccoony
 
Webservice cache strategy
Webservice cache strategyWebservice cache strategy
Webservice cache strategyDaeMyung Kang
 
멸종하는 공룡이 되지 않으려면
멸종하는 공룡이 되지 않으려면멸종하는 공룡이 되지 않으려면
멸종하는 공룡이 되지 않으려면Byeongsu Kang
 
알고리즘 문제해결전략 #1
알고리즘 문제해결전략 #1알고리즘 문제해결전략 #1
알고리즘 문제해결전략 #1Byeongsu Kang
 
Exception log practical_coding_guide, 예외와 로그 코딩 실용 가이드
Exception log practical_coding_guide, 예외와 로그 코딩 실용 가이드Exception log practical_coding_guide, 예외와 로그 코딩 실용 가이드
Exception log practical_coding_guide, 예외와 로그 코딩 실용 가이드도형 임
 
코딩소림사 Rx java
코딩소림사 Rx java코딩소림사 Rx java
코딩소림사 Rx javaByeongsu Kang
 

Viewers also liked (20)

Differentiable Neural Computer
Differentiable Neural ComputerDifferentiable Neural Computer
Differentiable Neural Computer
 
A pixel to-pixel segmentation method of DILD without masks using CNN and perl...
A pixel to-pixel segmentation method of DILD without masks using CNN and perl...A pixel to-pixel segmentation method of DILD without masks using CNN and perl...
A pixel to-pixel segmentation method of DILD without masks using CNN and perl...
 
Convolutional neural network in practice
Convolutional neural network in practiceConvolutional neural network in practice
Convolutional neural network in practice
 
Variational inference intro. (korean ver.)
Variational inference intro. (korean ver.)Variational inference intro. (korean ver.)
Variational inference intro. (korean ver.)
 
Generative adversarial networks
Generative adversarial networksGenerative adversarial networks
Generative adversarial networks
 
네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙
네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙
네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙
 
네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한
네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한
네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한
 
네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정
네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정
네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정
 
Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)
 
20141223 머하웃(mahout) 협업필터링_추천시스템구현
20141223 머하웃(mahout) 협업필터링_추천시스템구현20141223 머하웃(mahout) 협업필터링_추천시스템구현
20141223 머하웃(mahout) 협업필터링_추천시스템구현
 
Scala dreaded underscore
Scala dreaded underscoreScala dreaded underscore
Scala dreaded underscore
 
1.introduction
1.introduction1.introduction
1.introduction
 
카카오스토리 웹팀의 코드리뷰 경험
카카오스토리 웹팀의 코드리뷰 경험카카오스토리 웹팀의 코드리뷰 경험
카카오스토리 웹팀의 코드리뷰 경험
 
Docker (Compose) 활용 - 개발 환경 구성하기
Docker (Compose) 활용 - 개발 환경 구성하기Docker (Compose) 활용 - 개발 환경 구성하기
Docker (Compose) 활용 - 개발 환경 구성하기
 
Webservice cache strategy
Webservice cache strategyWebservice cache strategy
Webservice cache strategy
 
멸종하는 공룡이 되지 않으려면
멸종하는 공룡이 되지 않으려면멸종하는 공룡이 되지 않으려면
멸종하는 공룡이 되지 않으려면
 
알고리즘 문제해결전략 #1
알고리즘 문제해결전략 #1알고리즘 문제해결전략 #1
알고리즘 문제해결전략 #1
 
Exception log practical_coding_guide, 예외와 로그 코딩 실용 가이드
Exception log practical_coding_guide, 예외와 로그 코딩 실용 가이드Exception log practical_coding_guide, 예외와 로그 코딩 실용 가이드
Exception log practical_coding_guide, 예외와 로그 코딩 실용 가이드
 
코딩소림사 Rx java
코딩소림사 Rx java코딩소림사 Rx java
코딩소림사 Rx java
 
알고리즘2
알고리즘2알고리즘2
알고리즘2
 

Similar to 지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016

딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)WON JOON YOO
 
파이썬을 활용한 챗봇 서비스 개발 3일차
파이썬을 활용한 챗봇 서비스 개발 3일차파이썬을 활용한 챗봇 서비스 개발 3일차
파이썬을 활용한 챗봇 서비스 개발 3일차Taekyung Han
 
Anomaly Detection with GANs
Anomaly Detection with GANsAnomaly Detection with GANs
Anomaly Detection with GANs홍배 김
 
20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료JungGeun Lee
 
[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field
[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field
[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field종빈 오
 
Open domain dialogue Chatbot(잡담봇 삽질기)
Open domain dialogue Chatbot(잡담봇 삽질기)Open domain dialogue Chatbot(잡담봇 삽질기)
Open domain dialogue Chatbot(잡담봇 삽질기)NAVER Engineering
 
딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기Myeongju Kim
 
딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초Hyungsoo Ryoo
 
머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)홍배 김
 
[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pub[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pubJaewook. Kang
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝Jinwon Lee
 
Final project v0.84
Final project v0.84Final project v0.84
Final project v0.84Soukwon Jun
 
딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)Tae Young Lee
 
Neural Networks Basics with PyTorch
Neural Networks Basics with PyTorchNeural Networks Basics with PyTorch
Neural Networks Basics with PyTorchHyunwoo Kim
 
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoTfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoMario Cho
 
알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder홍배 김
 
Crash Course on Graphical models
Crash Course on Graphical modelsCrash Course on Graphical models
Crash Course on Graphical modelsJong Wook Kim
 

Similar to 지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016 (18)

딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
 
파이썬을 활용한 챗봇 서비스 개발 3일차
파이썬을 활용한 챗봇 서비스 개발 3일차파이썬을 활용한 챗봇 서비스 개발 3일차
파이썬을 활용한 챗봇 서비스 개발 3일차
 
Anomaly Detection with GANs
Anomaly Detection with GANsAnomaly Detection with GANs
Anomaly Detection with GANs
 
20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료
 
[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field
[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field
[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field
 
Open domain dialogue Chatbot(잡담봇 삽질기)
Open domain dialogue Chatbot(잡담봇 삽질기)Open domain dialogue Chatbot(잡담봇 삽질기)
Open domain dialogue Chatbot(잡담봇 삽질기)
 
딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기
 
딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초
 
머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)
 
Sasa
SasaSasa
Sasa
 
[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pub[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pub
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝
 
Final project v0.84
Final project v0.84Final project v0.84
Final project v0.84
 
딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)
 
Neural Networks Basics with PyTorch
Neural Networks Basics with PyTorchNeural Networks Basics with PyTorch
Neural Networks Basics with PyTorch
 
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoTfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
 
알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder
 
Crash Course on Graphical models
Crash Course on Graphical modelsCrash Course on Graphical models
Crash Course on Graphical models
 

More from Taehoon Kim

Random Thoughts on Paper Implementations [KAIST 2018]
Random Thoughts on Paper Implementations [KAIST 2018]Random Thoughts on Paper Implementations [KAIST 2018]
Random Thoughts on Paper Implementations [KAIST 2018]Taehoon Kim
 
Continuous control with deep reinforcement learning (DDPG)
Continuous control with deep reinforcement learning (DDPG)Continuous control with deep reinforcement learning (DDPG)
Continuous control with deep reinforcement learning (DDPG)Taehoon Kim
 
Dueling network architectures for deep reinforcement learning
Dueling network architectures for deep reinforcement learningDueling network architectures for deep reinforcement learning
Dueling network architectures for deep reinforcement learningTaehoon Kim
 
쉽게 쓰여진 Django
쉽게 쓰여진 Django쉽게 쓰여진 Django
쉽게 쓰여진 DjangoTaehoon Kim
 
영화 서비스에 대한 생각
영화 서비스에 대한 생각영화 서비스에 대한 생각
영화 서비스에 대한 생각Taehoon Kim
 

More from Taehoon Kim (6)

Random Thoughts on Paper Implementations [KAIST 2018]
Random Thoughts on Paper Implementations [KAIST 2018]Random Thoughts on Paper Implementations [KAIST 2018]
Random Thoughts on Paper Implementations [KAIST 2018]
 
Continuous control with deep reinforcement learning (DDPG)
Continuous control with deep reinforcement learning (DDPG)Continuous control with deep reinforcement learning (DDPG)
Continuous control with deep reinforcement learning (DDPG)
 
Dueling network architectures for deep reinforcement learning
Dueling network architectures for deep reinforcement learningDueling network architectures for deep reinforcement learning
Dueling network architectures for deep reinforcement learning
 
Deep Reasoning
Deep ReasoningDeep Reasoning
Deep Reasoning
 
쉽게 쓰여진 Django
쉽게 쓰여진 Django쉽게 쓰여진 Django
쉽게 쓰여진 Django
 
영화 서비스에 대한 생각
영화 서비스에 대한 생각영화 서비스에 대한 생각
영화 서비스에 대한 생각
 

지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016