SlideShare a Scribd company logo
인공지능 슈퍼마리오의 거의 모든 것
Reinforcement Learning
Wonseok Jung
정원석

Wonseok Jung
City University of New York - Baruch College (Data Science Major)
ConnexionAI A.I Researcher
DeepLearningCollege Reinforcement Learning Researcher
모두의연구소 CTRL (Contest in RL) Leader
Reinforcement Learning, Object Detection, Chatbot
Github:
https://github.com/wonseokjung
Facebook:
https://www.facebook.com/ws.jung.798
Blog:
https://wonseokjung.github.io/
목차
1. How Animals Learn
2. How Humans Learn
3. Reinforcement Learning
4. SuperMario with Reinforcement Learning
REINFORCEMENT LEARNING
PREVIEW
REINFORCEMENT LEARNING
Animal Human SuperMario
A
A
Env
R AtRt
SSt
Rt+1
St+1
Reinforcement
Learning
Agent
Environment
HOW ANIMALS LEARN
ALL ANIMALS HAVE THE ABILITY TO LEARN
- 모든 동물은 학습능력이 있다.
- 300여개의 신경세포만을 갖고 있는 예쁜꼬마선충 또한 학습능력이 있다.
- 머리철수반사 head withdraws reflex : 위험한 물체가 있을것이라 판단에 따른 반사행동
- 예쁜꼬마선충의 머리를 건드리면 일정 거리를 뒤로 간다.
HOW ANIMALS LEARN
HABITUATION
HOW ANIMALS LEARN
First try
Second try
Third try
LAW OF EFFECT
- Edward Thorndike(1898)
- Law of effect : 어떤 행동의 결과가 만족스러우면 다음에도 그 행동을 반복한다.
반대로 만족하지 않으면 그 행동을 하지 않는다.
- Reinforcement(강화) : 이전에 일어난 행동을 반복하게 만드는 자극
- Punishment(처벌) : 이전에 일어난 행동을 피하게 만드는 자극
HOW ANIMALS LEARN
EXAMPLE OF THE LAW OF EFFECT
HOW ANIMALS LEARN
HOW HUMANS LEARN
INTERACTION WITH ENVIRONMENT
Environment Experience
LearnInteraction
HOW HUMANS LEARN
HOW HUMANS LEARN?
- Reinforcement : 이전에 일어난 행동을 반복하게 만드는 자극
- Punishment : 이전에 일어난 행동을 피하게 만드는 자극
HOW HUMANS LEARN
HOW HUMANS LEARN
Experiment Using Tap ball
HOW HUMANS LEARN
https://www.youtube.com/watch?v=2sicukP34fk
HOW HUMANS LEARN -TAP BALL
Day 1 Day 2 Day 3 Day 4
최고점수 : 3

맞은횟수 : 2
최고점수 : 23

맞은횟수 : 0
최고점수 : 30

맞은횟수 : 0
최고점수 : 38
맞은횟수 : 1
HOW HUMANS LEARN
TAP BALL DAY 5
Day 5
최고점수 : 79
맞은횟수 : 0
HOW HUMANS LEARN
SIMILAR LEARNING METHODS B/W ANIMALS AND HUMANS
HOW HUMANS LEARN
Punishment Punishment Punishment
REINFORCEMENT LEARNING
REINFORCEMENT LEARNING
Environment Experience
Learn
REINFORCEMENT LEARNING
Interaction
LEARNING
- Reinforcement learning은 Reward(보상)을 최대화 하는 action(행동)을 선택한다.
- Learner(배우는자)는 여러 action을 해보며, reward를 가장 높게 받는 action을 찾는다.
-선택된 action이 당장의 reward 뿐만 아닌, 다음의 상황 또는 다음 일어나게 될
reward에도 영향을 끼칠수도 있다.
Action
당장의
상황 변화
미래의 상황Reward 미래의 Reward
REINFORCEMENT LEARNING
Agent
Exploitation Exploration
?
EXPLOITATION AND EXPLORATION
REINFORCEMENT LEARNING
IMPORTANCE OF EXPLORATION
셀이
RussianBlue
2살
Curiosity

풀이
Munchkin
1살
Food
REINFORCEMENT LEARNING
IMPORTANCE OF EXPLORATION-2
REINFORCEMENT LEARNING
풀이 셀이
Zero

exploration
Exploration
IMPORTANCE OF EXPLORATION-3
REINFORCEMENT LEARNING
풀이 셀이
Fail
MARKOV DECISION PROCESS
Action
Agent
Environment
Reward
AtRt
State
St
Rt+1
St+1
REINFORCEMENT LEARNING
MARKOV DECISION PROCESS
Environment
Reward
AtRtSt
Rt+1
St+1
REINFORCEMENT LEARNING
Tap the ball
Positive Reward

STATE-VALUE FUNCTION
State-value
REINFORCEMENT LEARNING
STATE-ACTION VALUE FUNCTION
State-Action value
REINFORCEMENT LEARNING
OPTIMAL POLICY
Optimal State-Value function
REINFORCEMENT LEARNING
Optimal State-Action value function
SUPERMARIO WITH REINFORCEMENT LEARNING
MARKOV DECISION PROCESS
Action
Agent
Environment
Reward
AtRt
State
St
Rt+1
St+1
SUPERMARIO WITH R.L
Reward: +1
Penalty: -1
MARKOV DECISION PROCESS
Action
Agent
Environment
Reward
AtRt
State
St
Rt+1
St+1
SUPERMARIO WITH R.L
Reward: +1
Penalty: -1
SUPERMARIO WITH R.L
https://github.com/wonseokjung/gym-super-mario-bros
pip install gym-super-mario-bros

import gym_super_mario_bros

env = gym_super_mario_bros.make(‘SuperMarioBros-v0')
env.reset()
env.render()
INSTALL AND IMPORT ENVIRONMENT
WORLDS & LEVELS ( WORLD 1~4)
SUPERMARIO WITH R.L
World 1 World 3
World 2 World 4
env = gym_super_mario_bros.make('SuperMarioBros-<world>-<level>-v<version>')
WORLDS & LEVELS ( WORLD 5~8)
SUPERMARIO WITH R.L
World 5 World 7
World 6 World 8
env = gym_super_mario_bros.make('SuperMarioBros-<world>-<level>-v<version>')
ALL WORLDS AND LEVELS
SUPERMARIO WITH R.L
env = gym_super_mario_bros.make('SuperMarioBros-<world>-<level>-v<version>')
1
2
3
4
5
6
7
8
ALL WORLDS AND LEVELS
SUPERMARIO WITH R.L
env = gym_super_mario_bros.make('SuperMarioBros-<world>-<level>-v<version>')
1
2
3
4
5
6
7
8
1 2 3 4 1 2 3 4
WORLDS & LEVELS
SUPERMARIO WITH R.L
Version 1
env = gym_super_mario_bros.make('SuperMarioBros-<world>-<level>-v<version>')
Version 2 Version 3 Version 4
GOAL
SUPERMARIO WITH R.L
REWARD AND PENALTY
SUPERMARIO WITH R.L
Reward
Penalty
깃발에 가까워지면 +
목표에 도착하면 +
목표달성하지 못하면 -
시간이 지날때마다 -
깃발에서 멀어지면 -
STATE, ACTION
SUPERMARIO WITH R.L
env.observation_space.shape
(240, 256, 3) # [ height, weight, channel ]
env.action_space.n
256
SIMPLE_MOVEMENT = [
[‘nop’],
[‘right’],
[‘right’,’A’],
[‘right’,’B’],
[‘right’,’A’,’B’],
[‘A’],
[‘left’],
]




from nes_py.wrappers import BinarySpaceToDiscreteSpaceEnv
import gym_super_mario_bros

env = gym_super_mario_bros.make(‘SuperMarioBros-v0’)
env =BinarySpaceToDiscreteSpaceEnv(env, SIMPLE_MOVEMENT)
OBSERVATION SPACE
SUPERMARIO WITH R.L
env.action_space.n
256
SIMPLE_MOVEMENT = [
[‘nop’],
[‘right’],
[‘right’,’A’],
[‘right’,’B’],
[‘right’,’A’,’B’],
[‘A’],
[‘left’],
]




from nes_py.wrappers import BinarySpaceToDiscreteSpaceEnv
import gym_super_mario_bros

env = gym_super_mario_bros.make(‘SuperMarioBros-v0’)
env =BinarySpaceToDiscreteSpaceEnv(env, SIMPLE_MOVEMENT)
env.observation_space.shape
(240, 256, 3) # [ height, weight, channel ]
ACTION SPACE
SUPERMARIO WITH R.L
env.action_space.n
256
SIMPLE_MOVEMENT = [
[‘nop’],
[‘right’],
[‘right’,’A’],
[‘right’,’B’],
[‘right’,’A’,’B’],
[‘A’],
[‘left’],
]




from nes_py.wrappers import BinarySpaceToDiscreteSpaceEnv
import gym_super_mario_bros

env = gym_super_mario_bros.make(‘SuperMarioBros-v0’)
env =BinarySpaceToDiscreteSpaceEnv(env, SIMPLE_MOVEMENT)
env.observation_space.shape
(240, 256, 3) # [ height, weight, channel ]
ACTION AFTER WRAPPER
SUPERMARIO WITH R.L
env.action_space.n
256
SIMPLE_MOVEMENT = [
[‘nop’],
[‘right’],
[‘right’,’A’],
[‘right’,’B’],
[‘right’,’A’,’B’],
[‘A’],
[‘left’],
]




import gym_super_mario_bros

env = gym_super_mario_bros.make(‘SuperMarioBros-v0’)
env.observation_space.shape
(240, 256, 3) # [ height, weight, channel ]
env =BinarySpaceToDiscreteSpaceEnv(env, SIMPLE_MOVEMENT)
from nes_py.wrappers import BinarySpaceToDiscreteSpaceEnv
EXPLOITATION AND EXPLORATION
SUPERMARIO WITH R.L
next_state, reward, done, info = env.step(action)
else : 

action = np.argmax(output)
Exploitation Exploration
def epsilon_greedy(q_value,step):
if np.random.rand() < epsilon :
action=np.random.randint(output)
?
EXPLORATION
SUPERMARIO WITH R.L
next_state, reward, done, info = env.step(action)
else : 

action = np.argmax(output)
Exploitation Explorationif np.random.rand() < epsilon :
action=np.random.randint(output)
def epsilon_greedy(q_value,step):
?
EXPLOITATION
SUPERMARIO WITH R.L
next_state, reward, done, info = env.step(action)
else : 

action = np.argmax(output)
def epsilon_greedy(q_value,step):
if np.random.rand() < epsilon :
action=np.random.randint(output)
Exploitation Exploration
?
ENV.STEP( )
SUPERMARIO WITH R.L
next_state, reward, done, info = env.step(action)
else : 

action = np.argmax(output)
def epsilon_greedy(q_value,step):
if np.random.rand() < epsilon :
action=np.random.randint(output)
EXPLORATION RATE AND REPLAY MEMORY BUFFER
SUPERMARIO WITH R.L
memory = deque([],maxlen=1000000)
memory.append(state,action,reward,next_state)
(St, At, Rt+1, St+1)
next_state, reward, done, info = env.step(action)
eps_max = 1
eps_min = 0.1
eps_decay_steps = 200000
REPLAY MEMORY BUFFER
SUPERMARIO WITH R.L
memory = deque([],maxlen=1000000)
memory.append(state,action,reward,next_state)
next_state, reward, done, info = env.step(action)
eps_max = 1
eps_decay_steps = 200000
eps_min = 0.1
REPLAY MEMORY BUFFER
SUPERMARIO WITH R.L
memory = deque([],maxlen=1000000)
memory.append(state,action,reward,next_state)
next_state, reward, done, info = env.step(action)
eps_max = 1
eps_decay_steps = 200000
eps_min = 0.1
REPLAY MEMORY BUFFER
SUPERMARIO WITH R.L
memory = deque([],maxlen=1000000)
memory.append(state,action,reward,next_state)
next_state, reward, done, info = env.step(action)
eps_max = 1
eps_decay_steps = 200000
eps_min = 0.1
REPLAY MEMORY BUFFER
SUPERMARIO WITH R.L
memory = deque([],maxlen=1000000)
memory.append(state,action,reward,next_state)
eps_max = 1
eps_min = 0.1
eps_decay_steps = 200000
next_state, reward, done, info = env.step(action)
REPLAY MEMORY BUFFER
SUPERMARIO WITH R.L
eps_max = 1
eps_min = 0.1
eps_decay_steps = 200000
next_state, reward, done, info = env.step(action)
memory = deque([],maxlen=1000000)
memory.append(state,action,reward,next_state)
REPLAY MEMORY BUFFER
SUPERMARIO WITH R.L
eps_max = 1
eps_min = 0.1
eps_decay_steps = 200000
next_state, reward, done, info = env.step(action)
memory.append(state,action,reward,next_state)
memory = deque([],maxlen=1000000)
MINIMIZE LOSS
SUPERMARIO WITH R.L
import tensorflow as tf
loss = tf.reduce_mean(tf.squre( y - Q_action ) )
Optimizer =tf.train.AdamsOptimizer(learning_rate)
training_op = optimizer.minize(loss)
(Rt+1 + γt+1maxa′qθ(St+1, a′
) − qθ(St, At))2
(St, At, Rt+1, St+1)
MINIMIZE LOSS
SUPERMARIO WITH R.L
(Rt+1 + γt+1maxa′qθ(St+1, a′
) − qθ(St, At))2
(St, At, Rt+1, St+1)
loss = tf.reduce_mean(tf.squre( y - Q_action ) )
Optimizer =tf.train.AdamsOptimizer(learning_rate)
training_op = optimizer.minize(loss)
import tensorflow as tf
MINIMIZE LOSS
SUPERMARIO WITH R.L
import tensorflow as tf
Optimizer =tf.train.AdamsOptimizer(learning_rate)
training_op = optimizer.minize(loss)
(Rt+1 + γt+1maxa′qθ(St+1, a′
) − qθ(St, At))2
(St, At, Rt+1, St+1)
loss = tf.reduce_mean(tf.squre( y - Q_action ) )
MINIMIZE LOSS
SUPERMARIO WITH R.L
import tensorflow as tf
training_op = optimizer.minize(loss)
(Rt+1 + γt+1maxa′qθ(St+1, a′
) − qθ(St, At))2
(St, At, Rt+1, St+1)
loss = tf.reduce_mean(tf.squre( y - Q_action ) )
Optimizer =tf.train.AdamsOptimizer(learning_rate)
MINIMIZE LOSS
SUPERMARIO WITH R.L
import tensorflow as tf
(Rt+1 + γt+1maxa′qθ(St+1, a′
) − qθ(St, At))2
(St, At, Rt+1, St+1)
loss = tf.reduce_mean(tf.squre( y - Q_action ) )
Optimizer =tf.train.AdamsOptimizer(learning_rate)
training_op = optimizer.minize(loss)
APPROXIMATE ACTION-VALUE
SUPERMARIO WITH R.L
DOUBLE DQN
SUPERMARIO WITH R.L
input
Action
value EnvQ-Network s’
s
Replay memory
Q(s,a)
a
r
(St, At, Rt+1, St+1)
1000EPISODE, 3000EPISODE, TRAINING
SUPERMARIO WITH R.L
1000 episode 3000 episode
5000 EPISODE
SUPERMARIO WITH R.L
5000 episode
4 Days
SUMMARY
1. How Animals Learn
2. How Humans Learn
3. Reinforcement Learning
4. SuperMario with Reinforcement Learning
REINFORCEMENT LEARNING
OTHER ENVIRONMENTS
OpenAI Deepmind Lab Starcraft
Supermario Sonic Minecraft
REINFORCEMENT LEARNING
OTHER LEARNING METHODS


DQN


DDQN(tuned) Rainbow DQN(tuned) DDPG
REINFORCEMENT LEARNING
CURRICULUM LEARNING
Goal
Wall
Agent
Action3Action2
Action1
REINFORCEMENT LEARNING
IMITATION LEARNING
Imitation Learning
Teacher Student
REINFORCEMENT LEARNING
REINFORCEMENT LEARNING
How about making your own A.I SuperMario?
Github:
https://github.com/wonseokjung
Facebook:
https://www.facebook.com/ws.jung.798
Blog:
https://wonseokjung.github.io/
감사합니다.


Thank you
Question?
*참고 용어 기호
Time step
Action
Transition Function
Reward
Set of states
Set of actions
Start state
Discount factor
t
a
P(s′, r ∣ s, a)
r
A
S
S0
γ
Set of reward



Policy
Reward
State
R
π
r
REINFORCEMENT LEARNING
s
REFERENCES
1. Habituation The Birth of Intelligence
2. Law of effect : The Birth of Intelligence ,p.171
3. Thorndike, E. L. (1905). The elements of psychology. New York: A. G. Seiler.
4. Thorndike, E. L. (1898). Animal intelligence: An experimental study of the associative
processes in animals. Psychological Monographs: General and Applied, 2(4), i-109.
5. SuperMario environment 

https://github.com/Kautenja/gym-super-mario-bros
6. http://faculty.coe.uh.edu/smcneil/cuin6373/idhistory/thorndike_extra.html

More Related Content

What's hot

고려대학교 컴퓨터학과 특강 - 대학생 때 알았더라면 좋았을 것들
고려대학교 컴퓨터학과 특강 - 대학생 때 알았더라면 좋았을 것들고려대학교 컴퓨터학과 특강 - 대학생 때 알았더라면 좋았을 것들
고려대학교 컴퓨터학과 특강 - 대학생 때 알았더라면 좋았을 것들
Chris Ohk
 
Bigquery와 airflow를 이용한 데이터 분석 시스템 구축 v1 나무기술(주) 최유석 20170912
Bigquery와 airflow를 이용한 데이터 분석 시스템 구축 v1  나무기술(주) 최유석 20170912Bigquery와 airflow를 이용한 데이터 분석 시스템 구축 v1  나무기술(주) 최유석 20170912
Bigquery와 airflow를 이용한 데이터 분석 시스템 구축 v1 나무기술(주) 최유석 20170912
Yooseok Choi
 
Data pipeline and data lake
Data pipeline and data lakeData pipeline and data lake
Data pipeline and data lake
DaeMyung Kang
 
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
WON JOON YOO
 
차곡차곡 쉽게 알아가는 Elasticsearch와 Node.js
차곡차곡 쉽게 알아가는 Elasticsearch와 Node.js차곡차곡 쉽게 알아가는 Elasticsearch와 Node.js
차곡차곡 쉽게 알아가는 Elasticsearch와 Node.js
HeeJung Hwang
 
Data Science. Intro
Data Science. IntroData Science. Intro
Data Science. Intro
Seongyun Byeon
 
AWS를 활용하여 Daily Report 만들기 : 로그 수집부터 자동화된 분석까지
AWS를 활용하여 Daily Report 만들기 : 로그 수집부터 자동화된 분석까지AWS를 활용하여 Daily Report 만들기 : 로그 수집부터 자동화된 분석까지
AWS를 활용하여 Daily Report 만들기 : 로그 수집부터 자동화된 분석까지
Changje Jeong
 
[우리가 데이터를 쓰는 법] 모바일 게임 로그 데이터 분석 이야기 - 엔터메이트 공신배 팀장
[우리가 데이터를 쓰는 법] 모바일 게임 로그 데이터 분석 이야기 - 엔터메이트 공신배 팀장[우리가 데이터를 쓰는 법] 모바일 게임 로그 데이터 분석 이야기 - 엔터메이트 공신배 팀장
[우리가 데이터를 쓰는 법] 모바일 게임 로그 데이터 분석 이야기 - 엔터메이트 공신배 팀장
Dylan Ko
 
BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편
BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편
BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편
Seongyun Byeon
 
강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)
강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)
강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)
Curt Park
 
VictoriaMetrics: Welcome to the Virtual Meet Up March 2023
VictoriaMetrics: Welcome to the Virtual Meet Up March 2023VictoriaMetrics: Welcome to the Virtual Meet Up March 2023
VictoriaMetrics: Welcome to the Virtual Meet Up March 2023
VictoriaMetrics
 
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
WON JOON YOO
 
로그 기깔나게 잘 디자인하는 법
로그 기깔나게 잘 디자인하는 법로그 기깔나게 잘 디자인하는 법
로그 기깔나게 잘 디자인하는 법
Jeongsang Baek
 
[수정본] 우아한 객체지향
[수정본] 우아한 객체지향[수정본] 우아한 객체지향
[수정본] 우아한 객체지향
Young-Ho Cho
 
[NDC18] 야생의 땅 듀랑고의 데이터 엔지니어링 이야기: 로그 시스템 구축 경험 공유 (2부)
[NDC18] 야생의 땅 듀랑고의 데이터 엔지니어링 이야기: 로그 시스템 구축 경험 공유 (2부)[NDC18] 야생의 땅 듀랑고의 데이터 엔지니어링 이야기: 로그 시스템 구축 경험 공유 (2부)
[NDC18] 야생의 땅 듀랑고의 데이터 엔지니어링 이야기: 로그 시스템 구축 경험 공유 (2부)
Hyojun Jeon
 
코딩 테스트 및 알고리즘 문제해결 공부 방법 (고려대학교 KUCC, 2022년 4월)
코딩 테스트 및 알고리즘 문제해결 공부 방법 (고려대학교 KUCC, 2022년 4월)코딩 테스트 및 알고리즘 문제해결 공부 방법 (고려대학교 KUCC, 2022년 4월)
코딩 테스트 및 알고리즘 문제해결 공부 방법 (고려대학교 KUCC, 2022년 4월)
Suhyun Park
 
Little Big Data #1. 바닥부터 시작하는 데이터 인프라
Little Big Data #1. 바닥부터 시작하는 데이터 인프라Little Big Data #1. 바닥부터 시작하는 데이터 인프라
Little Big Data #1. 바닥부터 시작하는 데이터 인프라
Seongyun Byeon
 
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
Yongho Ha
 
[2D1]Elasticsearch 성능 최적화
[2D1]Elasticsearch 성능 최적화[2D1]Elasticsearch 성능 최적화
[2D1]Elasticsearch 성능 최적화
NAVER D2
 
Service Workerとの戦い ~ 実装編 ~ #scripty03
Service Workerとの戦い ~ 実装編 ~ #scripty03Service Workerとの戦い ~ 実装編 ~ #scripty03
Service Workerとの戦い ~ 実装編 ~ #scripty03
Yahoo!デベロッパーネットワーク
 

What's hot (20)

고려대학교 컴퓨터학과 특강 - 대학생 때 알았더라면 좋았을 것들
고려대학교 컴퓨터학과 특강 - 대학생 때 알았더라면 좋았을 것들고려대학교 컴퓨터학과 특강 - 대학생 때 알았더라면 좋았을 것들
고려대학교 컴퓨터학과 특강 - 대학생 때 알았더라면 좋았을 것들
 
Bigquery와 airflow를 이용한 데이터 분석 시스템 구축 v1 나무기술(주) 최유석 20170912
Bigquery와 airflow를 이용한 데이터 분석 시스템 구축 v1  나무기술(주) 최유석 20170912Bigquery와 airflow를 이용한 데이터 분석 시스템 구축 v1  나무기술(주) 최유석 20170912
Bigquery와 airflow를 이용한 데이터 분석 시스템 구축 v1 나무기술(주) 최유석 20170912
 
Data pipeline and data lake
Data pipeline and data lakeData pipeline and data lake
Data pipeline and data lake
 
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
 
차곡차곡 쉽게 알아가는 Elasticsearch와 Node.js
차곡차곡 쉽게 알아가는 Elasticsearch와 Node.js차곡차곡 쉽게 알아가는 Elasticsearch와 Node.js
차곡차곡 쉽게 알아가는 Elasticsearch와 Node.js
 
Data Science. Intro
Data Science. IntroData Science. Intro
Data Science. Intro
 
AWS를 활용하여 Daily Report 만들기 : 로그 수집부터 자동화된 분석까지
AWS를 활용하여 Daily Report 만들기 : 로그 수집부터 자동화된 분석까지AWS를 활용하여 Daily Report 만들기 : 로그 수집부터 자동화된 분석까지
AWS를 활용하여 Daily Report 만들기 : 로그 수집부터 자동화된 분석까지
 
[우리가 데이터를 쓰는 법] 모바일 게임 로그 데이터 분석 이야기 - 엔터메이트 공신배 팀장
[우리가 데이터를 쓰는 법] 모바일 게임 로그 데이터 분석 이야기 - 엔터메이트 공신배 팀장[우리가 데이터를 쓰는 법] 모바일 게임 로그 데이터 분석 이야기 - 엔터메이트 공신배 팀장
[우리가 데이터를 쓰는 법] 모바일 게임 로그 데이터 분석 이야기 - 엔터메이트 공신배 팀장
 
BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편
BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편
BigQuery의 모든 것(기획자, 마케터, 신입 데이터 분석가를 위한) 입문편
 
강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)
강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)
강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)
 
VictoriaMetrics: Welcome to the Virtual Meet Up March 2023
VictoriaMetrics: Welcome to the Virtual Meet Up March 2023VictoriaMetrics: Welcome to the Virtual Meet Up March 2023
VictoriaMetrics: Welcome to the Virtual Meet Up March 2023
 
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리 학습을 위한 PPT! (Deep Learning for Natural Language Processing)
 
로그 기깔나게 잘 디자인하는 법
로그 기깔나게 잘 디자인하는 법로그 기깔나게 잘 디자인하는 법
로그 기깔나게 잘 디자인하는 법
 
[수정본] 우아한 객체지향
[수정본] 우아한 객체지향[수정본] 우아한 객체지향
[수정본] 우아한 객체지향
 
[NDC18] 야생의 땅 듀랑고의 데이터 엔지니어링 이야기: 로그 시스템 구축 경험 공유 (2부)
[NDC18] 야생의 땅 듀랑고의 데이터 엔지니어링 이야기: 로그 시스템 구축 경험 공유 (2부)[NDC18] 야생의 땅 듀랑고의 데이터 엔지니어링 이야기: 로그 시스템 구축 경험 공유 (2부)
[NDC18] 야생의 땅 듀랑고의 데이터 엔지니어링 이야기: 로그 시스템 구축 경험 공유 (2부)
 
코딩 테스트 및 알고리즘 문제해결 공부 방법 (고려대학교 KUCC, 2022년 4월)
코딩 테스트 및 알고리즘 문제해결 공부 방법 (고려대학교 KUCC, 2022년 4월)코딩 테스트 및 알고리즘 문제해결 공부 방법 (고려대학교 KUCC, 2022년 4월)
코딩 테스트 및 알고리즘 문제해결 공부 방법 (고려대학교 KUCC, 2022년 4월)
 
Little Big Data #1. 바닥부터 시작하는 데이터 인프라
Little Big Data #1. 바닥부터 시작하는 데이터 인프라Little Big Data #1. 바닥부터 시작하는 데이터 인프라
Little Big Data #1. 바닥부터 시작하는 데이터 인프라
 
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
 
[2D1]Elasticsearch 성능 최적화
[2D1]Elasticsearch 성능 최적화[2D1]Elasticsearch 성능 최적화
[2D1]Elasticsearch 성능 최적화
 
Service Workerとの戦い ~ 実装編 ~ #scripty03
Service Workerとの戦い ~ 実装編 ~ #scripty03Service Workerとの戦い ~ 実装編 ~ #scripty03
Service Workerとの戦い ~ 実装編 ~ #scripty03
 

Recently uploaded

原版制作(Deakin毕业证书)迪肯大学毕业证学位证一模一样
原版制作(Deakin毕业证书)迪肯大学毕业证学位证一模一样原版制作(Deakin毕业证书)迪肯大学毕业证学位证一模一样
原版制作(Deakin毕业证书)迪肯大学毕业证学位证一模一样
u86oixdj
 
SOCRadar Germany 2024 Threat Landscape Report
SOCRadar Germany 2024 Threat Landscape ReportSOCRadar Germany 2024 Threat Landscape Report
SOCRadar Germany 2024 Threat Landscape Report
SOCRadar
 
一比一原版(BU毕业证)波士顿大学毕业证成绩单
一比一原版(BU毕业证)波士顿大学毕业证成绩单一比一原版(BU毕业证)波士顿大学毕业证成绩单
一比一原版(BU毕业证)波士顿大学毕业证成绩单
ewymefz
 
Levelwise PageRank with Loop-Based Dead End Handling Strategy : SHORT REPORT ...
Levelwise PageRank with Loop-Based Dead End Handling Strategy : SHORT REPORT ...Levelwise PageRank with Loop-Based Dead End Handling Strategy : SHORT REPORT ...
Levelwise PageRank with Loop-Based Dead End Handling Strategy : SHORT REPORT ...
Subhajit Sahu
 
FP Growth Algorithm and its Applications
FP Growth Algorithm and its ApplicationsFP Growth Algorithm and its Applications
FP Growth Algorithm and its Applications
MaleehaSheikh2
 
一比一原版(Deakin毕业证书)迪肯大学毕业证如何办理
一比一原版(Deakin毕业证书)迪肯大学毕业证如何办理一比一原版(Deakin毕业证书)迪肯大学毕业证如何办理
一比一原版(Deakin毕业证书)迪肯大学毕业证如何办理
oz8q3jxlp
 
Data Centers - Striving Within A Narrow Range - Research Report - MCG - May 2...
Data Centers - Striving Within A Narrow Range - Research Report - MCG - May 2...Data Centers - Striving Within A Narrow Range - Research Report - MCG - May 2...
Data Centers - Striving Within A Narrow Range - Research Report - MCG - May 2...
pchutichetpong
 
一比一原版(UofM毕业证)明尼苏达大学毕业证成绩单
一比一原版(UofM毕业证)明尼苏达大学毕业证成绩单一比一原版(UofM毕业证)明尼苏达大学毕业证成绩单
一比一原版(UofM毕业证)明尼苏达大学毕业证成绩单
ewymefz
 
做(mqu毕业证书)麦考瑞大学毕业证硕士文凭证书学费发票原版一模一样
做(mqu毕业证书)麦考瑞大学毕业证硕士文凭证书学费发票原版一模一样做(mqu毕业证书)麦考瑞大学毕业证硕士文凭证书学费发票原版一模一样
做(mqu毕业证书)麦考瑞大学毕业证硕士文凭证书学费发票原版一模一样
axoqas
 
一比一原版(UPenn毕业证)宾夕法尼亚大学毕业证成绩单
一比一原版(UPenn毕业证)宾夕法尼亚大学毕业证成绩单一比一原版(UPenn毕业证)宾夕法尼亚大学毕业证成绩单
一比一原版(UPenn毕业证)宾夕法尼亚大学毕业证成绩单
ewymefz
 
一比一原版(ArtEZ毕业证)ArtEZ艺术学院毕业证成绩单
一比一原版(ArtEZ毕业证)ArtEZ艺术学院毕业证成绩单一比一原版(ArtEZ毕业证)ArtEZ艺术学院毕业证成绩单
一比一原版(ArtEZ毕业证)ArtEZ艺术学院毕业证成绩单
vcaxypu
 
Algorithmic optimizations for Dynamic Levelwise PageRank (from STICD) : SHORT...
Algorithmic optimizations for Dynamic Levelwise PageRank (from STICD) : SHORT...Algorithmic optimizations for Dynamic Levelwise PageRank (from STICD) : SHORT...
Algorithmic optimizations for Dynamic Levelwise PageRank (from STICD) : SHORT...
Subhajit Sahu
 
一比一原版(UIUC毕业证)伊利诺伊大学|厄巴纳-香槟分校毕业证如何办理
一比一原版(UIUC毕业证)伊利诺伊大学|厄巴纳-香槟分校毕业证如何办理一比一原版(UIUC毕业证)伊利诺伊大学|厄巴纳-香槟分校毕业证如何办理
一比一原版(UIUC毕业证)伊利诺伊大学|厄巴纳-香槟分校毕业证如何办理
ahzuo
 
一比一原版(NYU毕业证)纽约大学毕业证成绩单
一比一原版(NYU毕业证)纽约大学毕业证成绩单一比一原版(NYU毕业证)纽约大学毕业证成绩单
一比一原版(NYU毕业证)纽约大学毕业证成绩单
ewymefz
 
一比一原版(CU毕业证)卡尔顿大学毕业证成绩单
一比一原版(CU毕业证)卡尔顿大学毕业证成绩单一比一原版(CU毕业证)卡尔顿大学毕业证成绩单
一比一原版(CU毕业证)卡尔顿大学毕业证成绩单
yhkoc
 
一比一原版(IIT毕业证)伊利诺伊理工大学毕业证成绩单
一比一原版(IIT毕业证)伊利诺伊理工大学毕业证成绩单一比一原版(IIT毕业证)伊利诺伊理工大学毕业证成绩单
一比一原版(IIT毕业证)伊利诺伊理工大学毕业证成绩单
ewymefz
 
Opendatabay - Open Data Marketplace.pptx
Opendatabay - Open Data Marketplace.pptxOpendatabay - Open Data Marketplace.pptx
Opendatabay - Open Data Marketplace.pptx
Opendatabay
 
一比一原版(QU毕业证)皇后大学毕业证成绩单
一比一原版(QU毕业证)皇后大学毕业证成绩单一比一原版(QU毕业证)皇后大学毕业证成绩单
一比一原版(QU毕业证)皇后大学毕业证成绩单
enxupq
 
Malana- Gimlet Market Analysis (Portfolio 2)
Malana- Gimlet Market Analysis (Portfolio 2)Malana- Gimlet Market Analysis (Portfolio 2)
Malana- Gimlet Market Analysis (Portfolio 2)
TravisMalana
 
Predicting Product Ad Campaign Performance: A Data Analysis Project Presentation
Predicting Product Ad Campaign Performance: A Data Analysis Project PresentationPredicting Product Ad Campaign Performance: A Data Analysis Project Presentation
Predicting Product Ad Campaign Performance: A Data Analysis Project Presentation
Boston Institute of Analytics
 

Recently uploaded (20)

原版制作(Deakin毕业证书)迪肯大学毕业证学位证一模一样
原版制作(Deakin毕业证书)迪肯大学毕业证学位证一模一样原版制作(Deakin毕业证书)迪肯大学毕业证学位证一模一样
原版制作(Deakin毕业证书)迪肯大学毕业证学位证一模一样
 
SOCRadar Germany 2024 Threat Landscape Report
SOCRadar Germany 2024 Threat Landscape ReportSOCRadar Germany 2024 Threat Landscape Report
SOCRadar Germany 2024 Threat Landscape Report
 
一比一原版(BU毕业证)波士顿大学毕业证成绩单
一比一原版(BU毕业证)波士顿大学毕业证成绩单一比一原版(BU毕业证)波士顿大学毕业证成绩单
一比一原版(BU毕业证)波士顿大学毕业证成绩单
 
Levelwise PageRank with Loop-Based Dead End Handling Strategy : SHORT REPORT ...
Levelwise PageRank with Loop-Based Dead End Handling Strategy : SHORT REPORT ...Levelwise PageRank with Loop-Based Dead End Handling Strategy : SHORT REPORT ...
Levelwise PageRank with Loop-Based Dead End Handling Strategy : SHORT REPORT ...
 
FP Growth Algorithm and its Applications
FP Growth Algorithm and its ApplicationsFP Growth Algorithm and its Applications
FP Growth Algorithm and its Applications
 
一比一原版(Deakin毕业证书)迪肯大学毕业证如何办理
一比一原版(Deakin毕业证书)迪肯大学毕业证如何办理一比一原版(Deakin毕业证书)迪肯大学毕业证如何办理
一比一原版(Deakin毕业证书)迪肯大学毕业证如何办理
 
Data Centers - Striving Within A Narrow Range - Research Report - MCG - May 2...
Data Centers - Striving Within A Narrow Range - Research Report - MCG - May 2...Data Centers - Striving Within A Narrow Range - Research Report - MCG - May 2...
Data Centers - Striving Within A Narrow Range - Research Report - MCG - May 2...
 
一比一原版(UofM毕业证)明尼苏达大学毕业证成绩单
一比一原版(UofM毕业证)明尼苏达大学毕业证成绩单一比一原版(UofM毕业证)明尼苏达大学毕业证成绩单
一比一原版(UofM毕业证)明尼苏达大学毕业证成绩单
 
做(mqu毕业证书)麦考瑞大学毕业证硕士文凭证书学费发票原版一模一样
做(mqu毕业证书)麦考瑞大学毕业证硕士文凭证书学费发票原版一模一样做(mqu毕业证书)麦考瑞大学毕业证硕士文凭证书学费发票原版一模一样
做(mqu毕业证书)麦考瑞大学毕业证硕士文凭证书学费发票原版一模一样
 
一比一原版(UPenn毕业证)宾夕法尼亚大学毕业证成绩单
一比一原版(UPenn毕业证)宾夕法尼亚大学毕业证成绩单一比一原版(UPenn毕业证)宾夕法尼亚大学毕业证成绩单
一比一原版(UPenn毕业证)宾夕法尼亚大学毕业证成绩单
 
一比一原版(ArtEZ毕业证)ArtEZ艺术学院毕业证成绩单
一比一原版(ArtEZ毕业证)ArtEZ艺术学院毕业证成绩单一比一原版(ArtEZ毕业证)ArtEZ艺术学院毕业证成绩单
一比一原版(ArtEZ毕业证)ArtEZ艺术学院毕业证成绩单
 
Algorithmic optimizations for Dynamic Levelwise PageRank (from STICD) : SHORT...
Algorithmic optimizations for Dynamic Levelwise PageRank (from STICD) : SHORT...Algorithmic optimizations for Dynamic Levelwise PageRank (from STICD) : SHORT...
Algorithmic optimizations for Dynamic Levelwise PageRank (from STICD) : SHORT...
 
一比一原版(UIUC毕业证)伊利诺伊大学|厄巴纳-香槟分校毕业证如何办理
一比一原版(UIUC毕业证)伊利诺伊大学|厄巴纳-香槟分校毕业证如何办理一比一原版(UIUC毕业证)伊利诺伊大学|厄巴纳-香槟分校毕业证如何办理
一比一原版(UIUC毕业证)伊利诺伊大学|厄巴纳-香槟分校毕业证如何办理
 
一比一原版(NYU毕业证)纽约大学毕业证成绩单
一比一原版(NYU毕业证)纽约大学毕业证成绩单一比一原版(NYU毕业证)纽约大学毕业证成绩单
一比一原版(NYU毕业证)纽约大学毕业证成绩单
 
一比一原版(CU毕业证)卡尔顿大学毕业证成绩单
一比一原版(CU毕业证)卡尔顿大学毕业证成绩单一比一原版(CU毕业证)卡尔顿大学毕业证成绩单
一比一原版(CU毕业证)卡尔顿大学毕业证成绩单
 
一比一原版(IIT毕业证)伊利诺伊理工大学毕业证成绩单
一比一原版(IIT毕业证)伊利诺伊理工大学毕业证成绩单一比一原版(IIT毕业证)伊利诺伊理工大学毕业证成绩单
一比一原版(IIT毕业证)伊利诺伊理工大学毕业证成绩单
 
Opendatabay - Open Data Marketplace.pptx
Opendatabay - Open Data Marketplace.pptxOpendatabay - Open Data Marketplace.pptx
Opendatabay - Open Data Marketplace.pptx
 
一比一原版(QU毕业证)皇后大学毕业证成绩单
一比一原版(QU毕业证)皇后大学毕业证成绩单一比一原版(QU毕业证)皇后大学毕业证成绩单
一比一原版(QU毕业证)皇后大学毕业证成绩单
 
Malana- Gimlet Market Analysis (Portfolio 2)
Malana- Gimlet Market Analysis (Portfolio 2)Malana- Gimlet Market Analysis (Portfolio 2)
Malana- Gimlet Market Analysis (Portfolio 2)
 
Predicting Product Ad Campaign Performance: A Data Analysis Project Presentation
Predicting Product Ad Campaign Performance: A Data Analysis Project PresentationPredicting Product Ad Campaign Performance: A Data Analysis Project Presentation
Predicting Product Ad Campaign Performance: A Data Analysis Project Presentation
 

인공지능 슈퍼마리오의 거의 모든 것( Pycon 2018 정원석)