[2017 Deepmind] Deep Q learning +
발표자료 : https://www.slideshare.net/taeseonryu/how-does-unlabeled-data-improve-generalization-in-self-training
지금까지 발표한 논문 :https://github.com/Lilcob/-DL_PaperReadingMeeting
안녕하세요 딥러닝 논문 읽기 모임입니다. 오늘 업로드된 논문 리뷰 영상은 'Rainbow : Combining Improvements in Deep Reinforcement Learning'라는 제목의 논문입니다.
오늘 발표드릴 논문은 Rainbow라는 이제 제목을 가지고 있습니다.
2018년도에 딥마인드에서 발표한 논문인데 Deep Q learning이 발표된 이후에
에이전트의 성능을 향상시키기 위해서 여러 익스텐션들이 이제 추가적으로 발표가 됐는데 이 논문은 그 EXTENSION 들을 모두 다 인터그레이션해서 에이전트를 구성을 했을 때 기존의 그 기존에 발표됐던 'Deep Q learning 에이전트'보다
월등한 성능을 가질 수 있다는 것을 보인 논문입니다
오늘 논문 리뷰를 위하여 펀디멘탈 양현모님이 자세한 리뷰 도와주셨습니다.
많은 관심 미리 감사드립니다!
https://youtu.be/oC1AOIefjT8
4. DQN Extensions | Prioritized reply
• Replay memory
• Which experiences to store
• Which experiences to replay
DQN Extensions | Multi-step learning
Temporal Difference | TD error
5. DQN Extensions | Dueling networks
DQN Extensions | Noisy Nets
• Limit of 𝜺-greedy policy: many actions must be executed
• Using advantage stream : Q = V + A
6. DQN Extensions | Distributional RL
• Q(s,a) | Reward expectation → Z(s,z) | Reward distribution
• Support z
• Probability mass
• Distribution
• Next state, action by optimal policy
• Target distribution
7. Rainbow: The Integrated Agent
• Multi-step distributional loss
• Double Q-learning
• Prioritized replay
• Dueling network architecture
• Noisy linear layers