3. Sequential Decision Making
• Time step이란 개념이 존재.
• Goal: select actions to maximise total future reward
• Actions may have long term consequences
• Reward may be delayed
• It may be better to sacrifice immediate reward to gain more
long-term reward
4. Reward, Agent, Environment, Action,
Observation
• Agent
• 의사결정을 하는 주체
• 우리가 학습시켜야 하는 것
• Ex) 게임 캐릭터, 헬리콥터, 탐사로봇 …
• Environment
• Agent와 상호작용 하는 모든 것
• 우리가 컨트롤 하지 못함
• Ex) 게임 프로그램, 지구, 화성 …
• Reward 𝑅𝑡
• Scalar feedback signal
• Indicates how well agent is doing at step t
Agent Environment
5. Reward, Agent, Environment, Action,
Observation
• Action 𝐴 𝑡
• Agent가 매 time step 마다 취하는 의사결정
• Discrete space ex) 상하좌우 움직임, 바둑돌을 두는 위치 …
• Continuous space ex) 로봇 관절의 꺾는 정도, 헬기의 속도 …
• Observation 𝑂𝑡
• Agent가 action을 취한 뒤 environment로 부터 받는 모든 관측값
6. History, State
• History 𝐻𝑡
• Observation, action, reward의 sequence
• State 𝑆𝑡
• Function of the history 𝑆𝑡 = 𝑓(𝐻𝑡)
• State를 바탕으로 agent는 현재 상황을 판단하고 Action을 취함
8. Value function, Action value function
• Value function 𝑉𝜋(𝑠)
• 현재 state s에서 policy 𝜋를 따랐을 때 return의 기대값
• Used to evaluate the goodness/badness of states
• Action value function 𝑞 𝜋 𝑠, 𝑎
• 현재 state s에서 action a를 취하고 policy 𝜋를 따랐을 때 return의 기
대값
9. Simple grid world example
- State : 1~14, terminal state(색칠된 칸)
- 벽에 부딪히면 r=-1을 받으면서 제자리에 가만히 있음
- 1~14 state의 value function 값을 구해보자!!
사실 그냥 구하기 엄청 어려움!
앞으로 배울것임 ㅎㅎ
10. Episode
• Episode
• 쉽게 말해 게임 한판
• Ex) 1(동,-1)2(동,-1)3(서,-1)2(남,-1)6(동,-1)7(남,-1)11(남,-1)Terminal
Ex) 5(동,-1)6(남,-1)10(남,-1)14(동,-1)Terminal
• Episodic environment : Terminal state나 정해진 time step이 존재하는 환경
• Non episodic environment : 게임이 무한히 진행되는 환경
16. Simple grid world example
• Value function table
• N_table = np.zeros(14)
• V_table = np.zeros(14)
• Action value function table
• N_table = np.zeros(14)
• Q_table = np.zeros((14, 4))
17. Policy iteration
1. Policy가 𝜋를 따를 때 𝑞 𝜋값 구하기(MC or TD)
2. 𝜀 − 𝑔𝑟𝑒𝑒𝑑𝑦 하게 Policy improvement
3. 1, 2번 반복 -> reward의 sum(return)을
maximize 해주는 optimal policy 𝜋∗를 구할
수 있음
(단, GLIE 조건 만족 하에)
19. Simple grid world example
이제 풀 수 있다!
Simple maze example
Reward : 골에 도착하면 1, 나머지는 0
State : agent의 maze상 좌표
Optimal policy
https://github.com/minseop4898/RL-Course-by-David-Silver/blob/master/GLIE%20Monte-
Carlo%20Control/GLIE%20MC%20in%20simple%20maze.ipynb