SlideShare a Scribd company logo
1 of 218
Download to read offline
지적 대화를 위한
깊고 넓은 딥러닝
김태훈
carpedm20
저는
UNIST 졸업
데브시스터즈 병특
딥러닝,
http://carpedm20.github.io/
지적 대화를 위한
깊고 넓은 딥러닝
지적 대화를 위한
깊고 넓은 딥러닝
Deep	Learning
지적 대화를 위한
깊고 넓은 딥러닝
CNN,	RNN과 같이 흔한 모델이 아니라, 흥미로운 최신 모델들
1980년 1997년
지적 대화를 위한
깊고 넓은 딥러닝
1) Deep	Convolutional	Generative	Adversarial	Network
(DCGAN)
지적 대화를 위한
깊고 넓은 딥러닝
2)	NTM,	3)	DQN,	4)	Visual	Analogy
DCGAN ≠ Classification	Model
내일의 주가를 예측하고, 평점을 예측하며 사진을 구분할 수 있는 모델들
DCGAN ∉ Supervised	Learning
DCGAN ∈ Unsupervised	Learning
Clustering, Anomaly Detection, Generative Models
DCGAN ∈ Generative	Model
“What	I	cannot	create,	I	do	not	understand.”
- Richard	Feynman
개와 고양이를 구분하는 모델
단순히 특징만을 배운 것에 불과
개와 고양이 사진을 만들 수 있는 모델?
Generative	Model
분류 모델보다는 개와 고양이를 제대로 이해하고 있다
제대로 이해하고 있다면, 개, 고양이의 분류는 쉬운 문제
이것이 바로
Generative	Model이 중요한 이유!
?
?
celebA
DCGAN
𝑓(𝑧) : 함수를 학습
𝑓(𝑧) : 함수
𝑧 =
0.4
−0.1
0.2
𝑧 =
0.1
0.4
0.9 𝑧 = -
−0.1
0.2
−0.7
𝑓(𝑧) : 함수
𝑧 =
0.4
−0.1
0.2
𝑧 =
0.1
0.4
0.9 𝑧 = -
−0.1
0.2
−0.7
𝑓(𝑧) : 얼굴 사진을 만드는 궁극의 함수
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
𝑓(𝑧) : 얼굴 사진을 만드는 궁극의 함수
RGB 이미지
0
255
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
𝑓(𝑧) = 𝑃(𝑦) : 얼굴 사진을 만드는 궁극의 확률 분포
Probabilistic	Distribution
RGB 이미지
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
celebA
𝑃(𝑦)
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
0
255
픽셀들의 확률 분포
𝑃(𝑦)
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
0
255
𝑃(𝑦|𝑧)
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
72
34
187
69
15
187
80
34
187
23
57
187
44
44
187
83
64
187
64
88
187
44
43
187
70
74
187
24
46
187
36
64
187
54
87
187
78
44
187
74
44
187
35
44
187
67
97
187
0
255
0
1
𝑃(𝑧):	Gaussian	distribution
𝑃(𝑦|𝑧)
0
255
0
255
DCGAN
𝑃(𝑦|𝑧)
Deep
Convolutional
Generative
Adversarial
Networks
Deep
Convolutional
Generative
Adversarial
Networks
딥러닝
Deep	Learning
Deep
Convolutional
Generative
Adversarial
Networks
ConvNet
이미지
개 or 고양이
Deep
Convolutional
Generative
Adversarial
Networks
보통 CNN classification은 이게 전부
생성 모델
Generative	Model
이미지
𝑃(𝑧)
𝑃 𝑦 𝑧
Deep
Convolutional
Generative
Adversarial
Networks
적대적 학습
Adversarial	Learning
Deep
Convolutional
Generative
Adversarial
Networks
인공 신경망
Neural	Network
Deep
Convolutional
Generative
Adversarial
Networks
DCGAN
DCGAN
DCGAN
DCGAN
구분자
Discriminator
Convolution	layers
DCGAN
DCGAN
생성자
Generator
Deconvolution	layers
DCGAN
경찰
진짜를 구분하려는 자
구분자
Discriminator
DCGAN
도둑
가짜를 만들어 속이려는 자
생성자
Generator
DCGAN
도둑
가짜를 만들어 속이려는 자
경찰
진짜를 구분하려는 자
Adversarial	Learning
적대적 학습
Adversarial	Learning
적대적 학습
Adversarial	learning
도둑경찰
적대적 학습
Adversarial	learning
도둑경찰
한번에 한번씩 번갈아가며 학습
1. 경찰의 학습
경찰
→ O? X?
→ X? O?
진짜와 가짜를 구분하는 방법을 학습
1. 경찰의 학습
경찰
→ O? X?
→ X? O?
진짜와 가짜를 구분하는 방법을 학습
X
O
2. 도둑의 학습
도둑경찰
→ O!
경찰을 속이는 사진을 만드는 방법을 학습
도둑경찰
→ O!
→ O? X?
→ X? O?
도둑경찰
→ O!
→ O!
→ X!
경찰은 점점 진짜와 가짜를 구분하게 되고
도둑경찰
→ O!
→ O!
→ X!
도둑경찰
→ O!
→ O!
→ X?!
도둑은 점점 진짜같은 가짜를 잘 만들게 된다
도둑경찰
→ O!
→ O!
→ X?!
도둑경찰
→ O!
→ O!
→ O?!
도둑경찰
→ O!
→ O!
→ O?
도둑경찰
→ O!
→ O!
→ O!
도둑경찰
→ O!
→ O!
→ O!
도둑경찰
→ O!
→ O!
→ O!
네트워크와 함께 설명해 보겠습니다
구분자 = 경찰
Descriptor
구분자 = 경찰
OO
Descriptor
구분자 = 경찰
XX
Descriptor
OO
구분자 = 경찰
O
X
1
1
1
0
0
0
O
X
1, 0로 이루어진 벡터를 예측
Descriptor
생성자 = 도둑
Generator
생성자 = 도둑
-0.3
-0.1
0.6
Gaussian	Distribution
Generator
0
1
생성자 = 도둑
-0.3
-0.1
0.6
X
Generator
Gaussian	Distribution
0
1
생성자 = 도둑
X
X-0.3
-0.1
0.6
평균이 0인 랜덤한 숫자들
Gaussian	Distribution
Generator
생성자 = 도둑
X
X-0.3
-0.1
0.6
평균이 0인 랜덤한 숫자들
Gaussian	Distribution
1
1
1
O
X를 O라고 하도록 학습
Generator
네트워크 구조
Convolution,	Deconvolution,	Batch	Normalization
구분자
Discriminator
이미지
구분자
Discriminator
Conv	1
구분자
Discriminator
1 2 3 4
5 6 7 8
3 2 1 0
1 2 3 4
7 11
5 5
1 0
0 1
2×2 kernel
2-strided	convolution
Conv	1
구분자
Discriminator
1 2 3 4
5 6 7 8
3 2 1 0
1 2 3 4
7 11
5 5
1 0
0 1
1 2 3 4
5 6 7 8
3 2 1 0
1 2 3 4
6 8
3 4
2×2 max	pooling
2×2 kernel
2-strided	convolution
Downsampling을
하기 위한 용도
Conv	1
Pooling?
구분자
Discriminator
Conv	1
No	pooling
4×4의 큰 kernel을 사용해 스스로 최적의 sampling을 배움
1 2 3 4
5 6 7 8
3 2 1 0
1 2 3 4
7 11
5 5
1 0
0 1
1 2 3 4
5 6 7 8
3 2 1 0
1 2 3 4
6 8
3 4
2×2 kernel
2-strided	convolution
Downsampling을
하기 위한 용도
2×2 max	pooling
구분자
Discriminator
Conv	1
4×4 2	strided	convolution
구분자
Discriminator
Conv	2
4×4 2	strided	convolution
구분자
Discriminator
Conv	3
4×4 2	strided	convolution
구분자
Discriminator
Conv	4
4×4 2	strided	convolution
Reshape
구분자
Discriminator
구분자
Discriminator
Batch	Normalization
이전 layer의 output을 normalize시켜 학습을 가속시키는 방법
http://sanghyukchun.github.io/88/
구분자
Discriminator
LeakyReLU
LeakyReLu
생성자
Generator
𝑧
이미지
생성자
Generator
FC
Matrix	multiplication
(Fully	connected)
생성자
Generator
FC Deconv	1
Matrix	multiplication
(Fully	connected)
생성자
Generator
FC Deconv	1
Matrix	multiplication
(Fully	connected)
생성자
Generator
FC Deconv	1
Matrix	multiplication
(Fully	connected)
생성자
Generator
FC Deconv	1
Matrix	multiplication
(Fully	connected)
4×4 2	strided	deconvolution
생성자
Generator
Deconv	2
𝑧
4×4 2	strided	deconvolution
생성자
Generator
Deconv	3
𝑧
4×4 2	strided	deconvolution
생성자
Generator
Deconv	4
𝑧
4×4 2	strided	deconvolution
생성자
Generator
생성자
Generator
Batch	Normalization
생성자
Generator
ReLU
tanh
ReLU tanh
총 정리
(탕탕)
O
O
images
Z	(Gaussian	distribution)
총 2개의 input
O
X
X
O
X
1
1
1
0
0
0
X
O
X
X
X
1
1
1
O
X
O
X
1
1
1
0
0
0
X
1
1
1
O
X
O
반복
학습
import tensorflow as tf
입력값
Inputs
입력값
Inputs
images = tf.placeholder(tf.float32, [32, 84, 84, 3])
O
입력값
Inputs
images = tf.placeholder(tf.float32, [32, 84, 84, 3])
z = tf.placeholder(tf.float32, [32, 100], name='z’)
O
구분자
Discriminator
구분자
Discriminator
h0 = conv2d(images, 64, 4, 4, 2, 2)
h0
구분자
Discriminator
h1_logits = batch_norm(conv2d(h0, 64 * 2, 4, 4, 2, 2))
h1 = lrelu(h1_logits)
h1
구분자
Discriminator
h2_logits = batch_norm(conv2d(h1, 64 * 4, 4, 4, 2, 2))
h2 = lrelu(h2_logits)
h3_logits = batch_norm(conv2d(h2, 64 * 8, 4, 4, 2, 2))
h3 = lrelu(h3_logits)
h2 h3
구분자
Discriminator
h4 = linear(tf.reshape(h3, [32, -1])
h4
생성자
Geneartor
생성자
Geneartor
z_ = linear(z, 64*8*4*4)
h0_logits = tf.reshape(z_, [-1, 4, 4, 64 * 8])
z z_
생성자
Geneartor
z_ = linear(z, 64*8*4*4)
h0_logits = tf.reshape(z_, [-1, 4, 4, 64 * 8])
h0 = tf.nn.relu(batch_norm(h0_logits))
z z_ h0
생성자
Geneartor
h1_logits = tf.nn.relu(deconv2d(h0, [32, 8, 8, 64*4])
h1 = batch_norm(h1_logits))
h2_logits = tf.nn.relu(deconv2d(h1, [32, 8, 8, 64*4])
h2 = batch_norm(h2_logits))
h1
h2
생성자
Geneartor
h3 = tf.nn.tanh(deconv2d(h2, [32, 8, 8, 64*4])
적대적 학습
Adversarial	Learning
적대적 학습
Adversarial	Learning
G = generator(z)
X G
적대적 학습
Adversarial	Learning
G = generator(z)
D = discriminator(images)
O
D
X G
적대적 학습
Adversarial	Learning
G = generator(z)
D = discriminator(images)
D_ = discriminator(G, reuse=True)
X
O
X
D_
G
D
적대적 학습
Adversarial	Learning
d_loss_real = tf.reduce_mean(
tf.nn.sigmoid_cross_entropy_with_logits(D, tf.ones_like(D)))
X
O
X G
D
O
d_loss_real
적대적 학습
Adversarial	Learning
d_loss_real = tf.reduce_mean(
tf.nn.sigmoid_cross_entropy_with_logits(D, tf.ones_like(D)))
d_loss_fake = tf.reduce_mean(
tf.nn.sigmoid_cross_entropy_with_logits(D_, tf.zeros_like(D_)))
X
O
X
X
G
D_
d_loss_fake
적대적 학습
Adversarial	Learning
g_loss = tf.reduce_mean(
tf.nn.sigmoid_cross_entropy_with_logits(D_logits_, tf.ones_like(D_)))
X
X
O
D_
g_loss
적대적 학습
Adversarial	Learning
d_loss = d_loss_real + d_loss_fake
적대적 학습
Adversarial	Learning
d_loss = d_loss_real + d_loss_fake
d_optim = tf.train.AdamOptimizer(0.0002).minimize(d_loss)
g_optim = tf.train.AdamOptimizer(0.0002).minimize(g_loss)
적대적 학습
Adversarial	Learning
d_loss = d_loss_real + d_loss_fake
d_optim = tf.train.AdamOptimizer(0.0002).minimize(d_loss)
g_optim = tf.train.AdamOptimizer(0.0002).minimize(g_loss)
while True:
sess.run(d_optim, { images: batch_images, z: batch_z })
sess.run(g_optim, { z: batch_z })
도둑경찰
학습 결과
MNIST
(Real)
MNIST
(Fake)
MNIST
(Fake)
MNIST
(Fake)
CelebA
(Real)
CelebA
(Fake)
CelebA
(Fake)
한국인 얼굴 데이터
한국인 얼굴 데이터
(Real)
한국인 얼굴 데이터
(Real)
한국인 얼굴 데이터
(Real)
마이크 안경 흑백
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
한국인 얼굴 데이터
(Fake)
https://github.com/carpedm20/DCGAN-tensorflow
http://carpedm20.github.io/faces/
Resources
• OpenAI’s “Generative Models” blog post
• Image Completion with Deep Learning in TensorFlow
• A Beginner's Guide to Variational Methods: Mean-Field
Approximation
Algorithm	Learning
Algorithm	Learning
알고리즘의 입력과 출력을 보고 알고리즘을 배울 수 있을까?
3, 1, 2, 5 → 1,	2,	3,	5
Algorithm	Learning
알고리즘의 입력과 출력을 보고 알고리즘을 배울 수 있을까?
3, 1, 2, 5 → 1,	2,	3,	5
9, 2, 4, 1 → 1,	2,	4,	9
7, 2, 6, 9 → 2,	6,	7,	9
9, 2, 4, 0 → 0,	2,	4,	9
…
Neural	Turing	Machine
Neural	Turing	Machine
뉴럴 네트워크로 튜링 머신을 만들 수 있다면?
튜링 머신
Turing	machine
1 0 0 1 1 0 1 0
Controller
Memory
튜링 머신
Turing	machine
1 0 0 1 1 0 1 0
Controller
Read Write
Memory
뉴럴 튜링 머신
Neural	Turing	machine
Write
Read
LSTM
CPU
LSTM
CPU
LSTM
CPU
0 1 1 0 0 1 1 0 1 0
1 1 0 1 0 1 1 0 1 0
0 1 1 1 0 0 1 1 0 0
Memory
실행 과정
Write
Read
LSTM
CPU
LSTM
CPU
LSTM
CPU
0 1 1 0 0 1 1 0 1 0
1 1 0 1 0 1 1 0 1 0
0 1 1 1 0 0 1 1 0 0
1. 읽고
실행 과정
Write
Read
LSTM
CPU
LSTM
CPU
LSTM
CPU
0 1 1 0 0 1 1 0 1 0
1 1 0 1 0 1 1 0 1 0
0 1 1 1 0 0 1 1 0 0
2. 처리하고
실행 과정
Write
Read
LSTM
CPU
LSTM
CPU
LSTM
CPU
0 1 1 0 0 1 1 0 1 0
1 1 0 1 0 1 1 0 1 0
0 1 1 1 0 0 1 1 0 0
3. 쓴다
t=1
Start	symbol
t=2
하나씩 읽어 메모리에 저장
t=3
하나씩 읽어 메모리에 저장
End	symbol
메모리에서 하나씩 읽어서 출력
메모리에서 하나씩 읽어서 출력
학습에 보지 않았던 긴 input
https://github.com/carpedm20/NTM-tensorflow
Resources
• Neural Turing Machine (in Chinese)
• Fancy Addressing for Neural Turing Machines
• Neural Turing Machines implementation
• Neural Turing Machines ­ A First Look
Deep	Q	Learning
Deep	Q	Learning
∈ Reinforcement	Learning
인공지능
환경 (게임)
action
Deep	Q	Learning
∈ Reinforcement	Learning
인공지능
환경 (게임)
actionreward
Deep	Q	Learning
∈ Reinforcement	Learning
“AI	=	Reinforcement	Learning	+	Deep	Learning”
- David	Silver
더 자세한건…
http://www.slideshare.net/carpedm20/ss-63116251
더 자세한건…
http://www.slideshare.net/carpedm20/reinforcement-learning-an-introduction-64037079
https://github.com/carpedm20/deep-rl-tensorflow
https://github.com/devsisters/DQN-tensorflow/
Resources
• David Silver’s ICML “Reinforcement Learning tutorial”
• Demystifying Deep Reinforcement Learning
• Playing Atari With Deep Reinforcement Learning
Deep	Visual	Analogy-Making
Deep	Visual	Analogy-Making
이미지 버전의 '왕 - 남자 + 여자 = 여왕’ (word2vec)
A → B : C → ?
→
A → B : C → ?
:→ →
A에서 B의 변화를 C에 적용하면?
A → B : C → ?
:→ →
A에서 B의 변화를 C에 적용하면?
A → B : C → ?
A
B
A → B : C → ?
A
B
C
회전한 이미지를 보고
A → B : C → ?
A
B
C
D
회전 1번
A → B : C → ?
A
B
C
D
D`
회전 2번
A → B : C → ?
A
B
C
D
D`
확대, 축소
A → B : C → ?
A
B
C
D
D`
x, y 축 이동
A → B : C → ?
A → B : C → ?
A → B : C → ?
https://github.com/carpedm20/visual-analogy-tensorflow
지금까지 제가 구현한 논문은
• Unsupervised	Representation	Learning	with	Deep	Convolutional	Generative	Adversarial	Networks
• Deep	Visual	Analogy-Making
• Pixel	Recurrent	Neural	Networks Computer	Vision
지금까지 제가 구현한 논문은
Natural	Language	Processing
• Unsupervised	Representation	Learning	with	Deep	Convolutional	Generative	Adversarial	Networks
• Deep	Visual	Analogy-Making
• Pixel	Recurrent	Neural	Networks
• End-To-End	Memory	Networks
• Neural	Variational	Inference	for	Text	Processing
• Character-Aware	Neural	Language	Models
• Teaching	Machines	to	Read	and	Comprehend
Computer	Vision
지금까지 제가 구현한 논문은
Natural	Language	Processing
Reinforcement	Learning
• Unsupervised	Representation	Learning	with	Deep	Convolutional	Generative	Adversarial	Networks
• Deep	Visual	Analogy-Making
• Pixel	Recurrent	Neural	Networks
• End-To-End	Memory	Networks
• Neural	Variational	Inference	for	Text	Processing
• Character-Aware	Neural	Language	Models
• Teaching	Machines	to	Read	and	Comprehend
• Playing	Atari	with	Deep	Reinforcement	Learning
• Human-level	control	through	deep	reinforcement	learning
• Deep	Reinforcement	Learning	with	Double	Q-learning
• Dueling	Network	Architectures	for	Deep	Reinforcement	Learning
• Language	Understanding	for	Text-based	Games	Using	Deep	Reinforcement	Learning
• Asynchronous	Methods	for	Deep	Reinforcement	Learning
• Continuous	Deep	q-Learning	with	Model-based	Acceleration
Computer	Vision
지금까지 제가 구현한 논문은
Algorithm	Learning
Natural	Language	Processing
Reinforcement	Learning
• Unsupervised	Representation	Learning	with	Deep	Convolutional	Generative	Adversarial	Networks
• Deep	Visual	Analogy-Making
• Pixel	Recurrent	Neural	Networks
• End-To-End	Memory	Networks
• Neural	Variational	Inference	for	Text	Processing
• Character-Aware	Neural	Language	Models
• Teaching	Machines	to	Read	and	Comprehend
• Playing	Atari	with	Deep	Reinforcement	Learning
• Human-level	control	through	deep	reinforcement	learning
• Deep	Reinforcement	Learning	with	Double	Q-learning
• Dueling	Network	Architectures	for	Deep	Reinforcement	Learning
• Language	Understanding	for	Text-based	Games	Using	Deep	Reinforcement	Learning
• Asynchronous	Methods	for	Deep	Reinforcement	Learning
• Continuous	Deep	q-Learning	with	Model-based	Acceleration
• Neural	Turing	Machines
Computer	Vision
재미있었던 논문은
Algorithm	Learning
Natural	Language	Processing
Reinforcement	Learning
• Unsupervised	Representation	Learning	with	Deep	Convolutional	Generative	Adversarial	Networks
• Deep	Visual	Analogy-Making
• Pixel	Recurrent	Neural	Networks
• End-To-End	Memory	Networks
• Neural	Variational	Inference	for	Text	Processing
• Character-Aware	Neural	Language	Models
• Teaching	Machines	to	Read	and	Comprehend
• Playing	Atari	with	Deep	Reinforcement	Learning
• Human-level	control	through	deep	reinforcement	learning
• Deep	Reinforcement	Learning	with	Double	Q-learning
• Dueling	Network	Architectures	for	Deep	Reinforcement	Learning
• Language	Understanding	for	Text-based	Games	Using	Deep	Reinforcement	Learning
• Asynchronous	Methods	for	Deep	Reinforcement	Learning
• Continuous	Deep	q-Learning	with	Model-based	Acceleration
• Neural	Turing	Machines
Computer	Vision
각 모델들은
Algorithm	Learning
Natural	Language	Processing
Reinforcement	Learning
• 이미지(사람의 얼굴 사진)을 이해하고 스스로 만드는 모델
• 이미지 버전의 '왕 - 남자 + 여자 = 여왕’
• 이미지를 이해하고 픽셀 하나씩 만들어가는 모델
• Question Answering, Language Model
• Neural Variational Inference for Text Processing
• Character-level Language Models with CNN
• Question Answering
• Atari 게임을 화면의 픽셀만 보고 배우는 딥러닝 모델 (최초)
• Atari 게임을 화면의 픽셀만 보고 배우는 딥러닝 모델 (Nature 논문)
• Double Q-Learning로 Atari 게임을 더 잘 플레이하는 모델
• Dueling Network로 Atari 게임을 더 잘 플레이하는 모델
• 텍스트 게임을 강화학습으로 배우는 모델
• Asynchronous 학습으로 빠르게 로 Atari 게임을 학습하는 모델
• Atari 게임과 같이 discrete한 action이 아닌 환경을 잘 학습하는 모델
• 뉴럴 튜링 머신
Computer	Vision
모든 코드는 Github에
• https://github.com/carpedm20/DCGAN-tensorflow
• https://github.com/carpedm20/visual-analogy-tensorflow
• https://github.com/carpedm20/pixel-rnn-tensorflow/
• https://github.com/carpedm20/MemN2N-tensorflow
• https://github.com/carpedm20/variational-text-tensorflow
• https://github.com/carpedm20/lstm-char-cnn-tensorflow
• https://github.com/carpedm20/attentive-reader-tensorflow
• https://github.com/devsisters/DQN-tensorflow
• https://github.com/devsisters/DQN-tensorflow
• https://github.com/carpedm20/deep-rl-tensorflow
• https://github.com/carpedm20/deep-rl-tensorflow
• https://github.com/carpedm20/text-based-game-rl-tensorflow
• https://github.com/devsisters/async-rl-tensorflow
• https://github.com/carpedm20/NAF-tensorflow/
• https://github.com/carpedm20/NTM-tensorflow
580+
210+
80+
180+
330+
170+
100+
410+
370+
40+
20+
330+
마지막으로.. x
로 오세요 :)
http://www.devsisters.com/jobs/
감사합니다
http://carpedm20.github.io/

More Related Content

What's hot

강화 학습 기초 Reinforcement Learning an introduction
강화 학습 기초 Reinforcement Learning an introduction강화 학습 기초 Reinforcement Learning an introduction
강화 학습 기초 Reinforcement Learning an introductionTaehoon Kim
 
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.Yongho Ha
 
Brief intro : Invariance and Equivariance
Brief intro : Invariance and EquivarianceBrief intro : Invariance and Equivariance
Brief intro : Invariance and Equivariance홍배 김
 
기계학습 / 딥러닝이란 무엇인가
기계학습 / 딥러닝이란 무엇인가기계학습 / 딥러닝이란 무엇인가
기계학습 / 딥러닝이란 무엇인가Yongha Kim
 
Causal Inference : Primer (2019-06-01 잔디콘)
Causal Inference : Primer (2019-06-01 잔디콘)Causal Inference : Primer (2019-06-01 잔디콘)
Causal Inference : Primer (2019-06-01 잔디콘)Minho Lee
 
텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝찬웅 주
 
그럴듯한 랜덤 생성 컨텐츠 만들기
그럴듯한 랜덤 생성 컨텐츠 만들기그럴듯한 랜덤 생성 컨텐츠 만들기
그럴듯한 랜덤 생성 컨텐츠 만들기Yongha Kim
 
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)Lee Seungeun
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기NAVER Engineering
 
Finding connections among images using CycleGAN
Finding connections among images using CycleGANFinding connections among images using CycleGAN
Finding connections among images using CycleGANNAVER Engineering
 
[기초개념] Graph Convolutional Network (GCN)
[기초개념] Graph Convolutional Network (GCN)[기초개념] Graph Convolutional Network (GCN)
[기초개념] Graph Convolutional Network (GCN)Donghyeon Kim
 
오토인코더의 모든 것
오토인코더의 모든 것오토인코더의 모든 것
오토인코더의 모든 것NAVER Engineering
 
Actor critic algorithm
Actor critic algorithmActor critic algorithm
Actor critic algorithmJie-Han Chen
 
最近思った機械学習(PyTorch)のベストプラクティス
最近思った機械学習(PyTorch)のベストプラクティス最近思った機械学習(PyTorch)のベストプラクティス
最近思った機械学習(PyTorch)のベストプラクティスMasato Fujitake
 
Introduction to Generative Adversarial Networks (GANs)
Introduction to Generative Adversarial Networks (GANs)Introduction to Generative Adversarial Networks (GANs)
Introduction to Generative Adversarial Networks (GANs)Appsilon Data Science
 
3Dマップを活用したVisual Localization
3Dマップを活用したVisual Localization3Dマップを活用したVisual Localization
3Dマップを活用したVisual LocalizationHajime Taira
 
AlphaGo Zero 解説
AlphaGo Zero 解説AlphaGo Zero 解説
AlphaGo Zero 解説suckgeun lee
 
強化学習の基礎的な考え方と問題の分類
強化学習の基礎的な考え方と問題の分類強化学習の基礎的な考え方と問題の分類
強化学習の基礎的な考え方と問題の分類佑 甲野
 

What's hot (20)

강화 학습 기초 Reinforcement Learning an introduction
강화 학습 기초 Reinforcement Learning an introduction강화 학습 기초 Reinforcement Learning an introduction
강화 학습 기초 Reinforcement Learning an introduction
 
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
자습해도 모르겠던 딥러닝, 머리속에 인스톨 시켜드립니다.
 
Brief intro : Invariance and Equivariance
Brief intro : Invariance and EquivarianceBrief intro : Invariance and Equivariance
Brief intro : Invariance and Equivariance
 
Soft Actor Critic 解説
Soft Actor Critic 解説Soft Actor Critic 解説
Soft Actor Critic 解説
 
그림 그리는 AI
그림 그리는 AI그림 그리는 AI
그림 그리는 AI
 
기계학습 / 딥러닝이란 무엇인가
기계학습 / 딥러닝이란 무엇인가기계학습 / 딥러닝이란 무엇인가
기계학습 / 딥러닝이란 무엇인가
 
Causal Inference : Primer (2019-06-01 잔디콘)
Causal Inference : Primer (2019-06-01 잔디콘)Causal Inference : Primer (2019-06-01 잔디콘)
Causal Inference : Primer (2019-06-01 잔디콘)
 
텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝
 
그럴듯한 랜덤 생성 컨텐츠 만들기
그럴듯한 랜덤 생성 컨텐츠 만들기그럴듯한 랜덤 생성 컨텐츠 만들기
그럴듯한 랜덤 생성 컨텐츠 만들기
 
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
 
Finding connections among images using CycleGAN
Finding connections among images using CycleGANFinding connections among images using CycleGAN
Finding connections among images using CycleGAN
 
[기초개념] Graph Convolutional Network (GCN)
[기초개념] Graph Convolutional Network (GCN)[기초개념] Graph Convolutional Network (GCN)
[기초개념] Graph Convolutional Network (GCN)
 
오토인코더의 모든 것
오토인코더의 모든 것오토인코더의 모든 것
오토인코더의 모든 것
 
Actor critic algorithm
Actor critic algorithmActor critic algorithm
Actor critic algorithm
 
最近思った機械学習(PyTorch)のベストプラクティス
最近思った機械学習(PyTorch)のベストプラクティス最近思った機械学習(PyTorch)のベストプラクティス
最近思った機械学習(PyTorch)のベストプラクティス
 
Introduction to Generative Adversarial Networks (GANs)
Introduction to Generative Adversarial Networks (GANs)Introduction to Generative Adversarial Networks (GANs)
Introduction to Generative Adversarial Networks (GANs)
 
3Dマップを活用したVisual Localization
3Dマップを活用したVisual Localization3Dマップを活用したVisual Localization
3Dマップを活用したVisual Localization
 
AlphaGo Zero 解説
AlphaGo Zero 解説AlphaGo Zero 解説
AlphaGo Zero 解説
 
強化学習の基礎的な考え方と問題の分類
強化学習の基礎的な考え方と問題の分類強化学習の基礎的な考え方と問題の分類
強化学習の基礎的な考え方と問題の分類
 

Viewers also liked

딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016Taehoon Kim
 
알아두면 쓸데있는 신기한 강화학습 NAVER 2017
알아두면 쓸데있는 신기한 강화학습 NAVER 2017알아두면 쓸데있는 신기한 강화학습 NAVER 2017
알아두면 쓸데있는 신기한 강화학습 NAVER 2017Taehoon Kim
 
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017Taehoon Kim
 
Differentiable Neural Computer
Differentiable Neural ComputerDifferentiable Neural Computer
Differentiable Neural ComputerTaehoon Kim
 
A pixel to-pixel segmentation method of DILD without masks using CNN and perl...
A pixel to-pixel segmentation method of DILD without masks using CNN and perl...A pixel to-pixel segmentation method of DILD without masks using CNN and perl...
A pixel to-pixel segmentation method of DILD without masks using CNN and perl...남주 김
 
Convolutional neural network in practice
Convolutional neural network in practiceConvolutional neural network in practice
Convolutional neural network in practice남주 김
 
Variational inference intro. (korean ver.)
Variational inference intro. (korean ver.)Variational inference intro. (korean ver.)
Variational inference intro. (korean ver.)Kiho Hong
 
Generative adversarial networks
Generative adversarial networksGenerative adversarial networks
Generative adversarial networks남주 김
 
네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙
네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙
네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙NAVER Engineering
 
네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한
네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한
네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한NAVER Engineering
 
네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정
네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정
네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정NAVER Engineering
 
Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)Tae Young Lee
 
20141223 머하웃(mahout) 협업필터링_추천시스템구현
20141223 머하웃(mahout) 협업필터링_추천시스템구현20141223 머하웃(mahout) 협업필터링_추천시스템구현
20141223 머하웃(mahout) 협업필터링_추천시스템구현Tae Young Lee
 
Scala dreaded underscore
Scala dreaded underscoreScala dreaded underscore
Scala dreaded underscoreRUDDER
 
카카오스토리 웹팀의 코드리뷰 경험
카카오스토리 웹팀의 코드리뷰 경험카카오스토리 웹팀의 코드리뷰 경험
카카오스토리 웹팀의 코드리뷰 경험Ohgyun Ahn
 
Docker (Compose) 활용 - 개발 환경 구성하기
Docker (Compose) 활용 - 개발 환경 구성하기Docker (Compose) 활용 - 개발 환경 구성하기
Docker (Compose) 활용 - 개발 환경 구성하기raccoony
 
Webservice cache strategy
Webservice cache strategyWebservice cache strategy
Webservice cache strategyDaeMyung Kang
 
멸종하는 공룡이 되지 않으려면
멸종하는 공룡이 되지 않으려면멸종하는 공룡이 되지 않으려면
멸종하는 공룡이 되지 않으려면Byeongsu Kang
 
알고리즘 문제해결전략 #1
알고리즘 문제해결전략 #1알고리즘 문제해결전략 #1
알고리즘 문제해결전략 #1Byeongsu Kang
 

Viewers also liked (20)

딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
 
알아두면 쓸데있는 신기한 강화학습 NAVER 2017
알아두면 쓸데있는 신기한 강화학습 NAVER 2017알아두면 쓸데있는 신기한 강화학습 NAVER 2017
알아두면 쓸데있는 신기한 강화학습 NAVER 2017
 
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017
책 읽어주는 딥러닝: 배우 유인나가 해리포터를 읽어준다면 DEVIEW 2017
 
Differentiable Neural Computer
Differentiable Neural ComputerDifferentiable Neural Computer
Differentiable Neural Computer
 
A pixel to-pixel segmentation method of DILD without masks using CNN and perl...
A pixel to-pixel segmentation method of DILD without masks using CNN and perl...A pixel to-pixel segmentation method of DILD without masks using CNN and perl...
A pixel to-pixel segmentation method of DILD without masks using CNN and perl...
 
Convolutional neural network in practice
Convolutional neural network in practiceConvolutional neural network in practice
Convolutional neural network in practice
 
Variational inference intro. (korean ver.)
Variational inference intro. (korean ver.)Variational inference intro. (korean ver.)
Variational inference intro. (korean ver.)
 
Generative adversarial networks
Generative adversarial networksGenerative adversarial networks
Generative adversarial networks
 
네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙
네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙
네이버 오픈소스세미나 - 오픈소스 바르게 시작하기 NAVER 강희숙
 
네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한
네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한
네이버 오픈소스 세미나 - 나의코드에서 모두의 코드로 UNIST 이한
 
네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정
네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정
네이버 오픈소스 세미나 - 오픈소스 프로젝트 참여하기 NAVER 박은정
 
Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)Tensorflow for Deep Learning(SK Planet)
Tensorflow for Deep Learning(SK Planet)
 
20141223 머하웃(mahout) 협업필터링_추천시스템구현
20141223 머하웃(mahout) 협업필터링_추천시스템구현20141223 머하웃(mahout) 협업필터링_추천시스템구현
20141223 머하웃(mahout) 협업필터링_추천시스템구현
 
Scala dreaded underscore
Scala dreaded underscoreScala dreaded underscore
Scala dreaded underscore
 
1.introduction
1.introduction1.introduction
1.introduction
 
카카오스토리 웹팀의 코드리뷰 경험
카카오스토리 웹팀의 코드리뷰 경험카카오스토리 웹팀의 코드리뷰 경험
카카오스토리 웹팀의 코드리뷰 경험
 
Docker (Compose) 활용 - 개발 환경 구성하기
Docker (Compose) 활용 - 개발 환경 구성하기Docker (Compose) 활용 - 개발 환경 구성하기
Docker (Compose) 활용 - 개발 환경 구성하기
 
Webservice cache strategy
Webservice cache strategyWebservice cache strategy
Webservice cache strategy
 
멸종하는 공룡이 되지 않으려면
멸종하는 공룡이 되지 않으려면멸종하는 공룡이 되지 않으려면
멸종하는 공룡이 되지 않으려면
 
알고리즘 문제해결전략 #1
알고리즘 문제해결전략 #1알고리즘 문제해결전략 #1
알고리즘 문제해결전략 #1
 

Similar to 지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016

딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)WON JOON YOO
 
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)WON JOON YOO
 
파이썬을 활용한 챗봇 서비스 개발 3일차
파이썬을 활용한 챗봇 서비스 개발 3일차파이썬을 활용한 챗봇 서비스 개발 3일차
파이썬을 활용한 챗봇 서비스 개발 3일차Taekyung Han
 
Anomaly Detection with GANs
Anomaly Detection with GANsAnomaly Detection with GANs
Anomaly Detection with GANs홍배 김
 
20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료JungGeun Lee
 
[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field
[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field
[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field종빈 오
 
Open domain dialogue Chatbot(잡담봇 삽질기)
Open domain dialogue Chatbot(잡담봇 삽질기)Open domain dialogue Chatbot(잡담봇 삽질기)
Open domain dialogue Chatbot(잡담봇 삽질기)NAVER Engineering
 
딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기Myeongju Kim
 
쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전Modulabs
 
머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)홍배 김
 
[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pub[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pubJaewook. Kang
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝Jinwon Lee
 
Final project v0.84
Final project v0.84Final project v0.84
Final project v0.84Soukwon Jun
 
딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)Tae Young Lee
 
Neural Networks Basics with PyTorch
Neural Networks Basics with PyTorchNeural Networks Basics with PyTorch
Neural Networks Basics with PyTorchHyunwoo Kim
 
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoTfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoMario Cho
 
알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder홍배 김
 
Crash Course on Graphical models
Crash Course on Graphical modelsCrash Course on Graphical models
Crash Course on Graphical modelsJong Wook Kim
 

Similar to 지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016 (19)

딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
 
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
 
파이썬을 활용한 챗봇 서비스 개발 3일차
파이썬을 활용한 챗봇 서비스 개발 3일차파이썬을 활용한 챗봇 서비스 개발 3일차
파이썬을 활용한 챗봇 서비스 개발 3일차
 
Anomaly Detection with GANs
Anomaly Detection with GANsAnomaly Detection with GANs
Anomaly Detection with GANs
 
20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료20160409 microsoft 세미나 머신러닝관련 발표자료
20160409 microsoft 세미나 머신러닝관련 발표자료
 
[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field
[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field
[GPU Gems3] Chapter 28. Practical Post Process Depth Of Field
 
Open domain dialogue Chatbot(잡담봇 삽질기)
Open domain dialogue Chatbot(잡담봇 삽질기)Open domain dialogue Chatbot(잡담봇 삽질기)
Open domain dialogue Chatbot(잡담봇 삽질기)
 
딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기
 
쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전
 
머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)
 
Sasa
SasaSasa
Sasa
 
[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pub[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pub
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝
 
Final project v0.84
Final project v0.84Final project v0.84
Final project v0.84
 
딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)
 
Neural Networks Basics with PyTorch
Neural Networks Basics with PyTorchNeural Networks Basics with PyTorch
Neural Networks Basics with PyTorch
 
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariochoTfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
Tfk 6618 tensor_flow로얼굴인식구현_r10_mariocho
 
알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder알기쉬운 Variational autoencoder
알기쉬운 Variational autoencoder
 
Crash Course on Graphical models
Crash Course on Graphical modelsCrash Course on Graphical models
Crash Course on Graphical models
 

More from Taehoon Kim

LLM에서 배우는 이미지 생성 모델 ZERO부터 학습하기 Training Large-Scale Diffusion Model from Scr...
LLM에서 배우는 이미지 생성 모델 ZERO부터 학습하기 Training Large-Scale Diffusion Model from Scr...LLM에서 배우는 이미지 생성 모델 ZERO부터 학습하기 Training Large-Scale Diffusion Model from Scr...
LLM에서 배우는 이미지 생성 모델 ZERO부터 학습하기 Training Large-Scale Diffusion Model from Scr...Taehoon Kim
 
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링Taehoon Kim
 
Random Thoughts on Paper Implementations [KAIST 2018]
Random Thoughts on Paper Implementations [KAIST 2018]Random Thoughts on Paper Implementations [KAIST 2018]
Random Thoughts on Paper Implementations [KAIST 2018]Taehoon Kim
 
카카오톡으로 여친 만들기 2013.06.29
카카오톡으로 여친 만들기 2013.06.29카카오톡으로 여친 만들기 2013.06.29
카카오톡으로 여친 만들기 2013.06.29Taehoon Kim
 
Continuous control with deep reinforcement learning (DDPG)
Continuous control with deep reinforcement learning (DDPG)Continuous control with deep reinforcement learning (DDPG)
Continuous control with deep reinforcement learning (DDPG)Taehoon Kim
 
Dueling network architectures for deep reinforcement learning
Dueling network architectures for deep reinforcement learningDueling network architectures for deep reinforcement learning
Dueling network architectures for deep reinforcement learningTaehoon Kim
 
쉽게 쓰여진 Django
쉽게 쓰여진 Django쉽게 쓰여진 Django
쉽게 쓰여진 DjangoTaehoon Kim
 
영화 서비스에 대한 생각
영화 서비스에 대한 생각영화 서비스에 대한 생각
영화 서비스에 대한 생각Taehoon Kim
 

More from Taehoon Kim (9)

LLM에서 배우는 이미지 생성 모델 ZERO부터 학습하기 Training Large-Scale Diffusion Model from Scr...
LLM에서 배우는 이미지 생성 모델 ZERO부터 학습하기 Training Large-Scale Diffusion Model from Scr...LLM에서 배우는 이미지 생성 모델 ZERO부터 학습하기 Training Large-Scale Diffusion Model from Scr...
LLM에서 배우는 이미지 생성 모델 ZERO부터 학습하기 Training Large-Scale Diffusion Model from Scr...
 
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
상상을 현실로 만드는, 이미지 생성 모델을 위한 엔지니어링
 
Random Thoughts on Paper Implementations [KAIST 2018]
Random Thoughts on Paper Implementations [KAIST 2018]Random Thoughts on Paper Implementations [KAIST 2018]
Random Thoughts on Paper Implementations [KAIST 2018]
 
카카오톡으로 여친 만들기 2013.06.29
카카오톡으로 여친 만들기 2013.06.29카카오톡으로 여친 만들기 2013.06.29
카카오톡으로 여친 만들기 2013.06.29
 
Continuous control with deep reinforcement learning (DDPG)
Continuous control with deep reinforcement learning (DDPG)Continuous control with deep reinforcement learning (DDPG)
Continuous control with deep reinforcement learning (DDPG)
 
Dueling network architectures for deep reinforcement learning
Dueling network architectures for deep reinforcement learningDueling network architectures for deep reinforcement learning
Dueling network architectures for deep reinforcement learning
 
Deep Reasoning
Deep ReasoningDeep Reasoning
Deep Reasoning
 
쉽게 쓰여진 Django
쉽게 쓰여진 Django쉽게 쓰여진 Django
쉽게 쓰여진 Django
 
영화 서비스에 대한 생각
영화 서비스에 대한 생각영화 서비스에 대한 생각
영화 서비스에 대한 생각
 

지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016