A.I/RL by Sung Kim
Lecture 2: OpenAI GYM
궁선이
2019. 1. 18. 03:21
이 내용은 Sung Kim 교수님의 모두를 위한 RL 강좌를 정리한 내용입니다.
https://youtu.be/xgoO54qN4lY
―――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――
OpenAI GYM : RL학습에서 Environment 구축을 도와주는 Framework
앞으로 강의에서 사용할 Environment인 Frozen Lake 환경
실제로는 길이가 16인 배열이다.
S : Starting point
F : 얼어있는 영역(안전지대)
H : Hole(위험지대)
G : Goal
Agent : Environment에서 움직이는 캐릭터
Environment : Frozen Lake
Action : 상하좌우 운동
State : Agent의 위치
Reward : 성공, 실패, 피해 여부
Agent가 Action을 Environment에게 보내면 Environment는 Agent가 위치한 State의 기준에서 Action을 실행한 후,
Agent에게 Agent의 State(위치), reward(성공, 실패, 피해 여부)를 반환하여준다.
이 때 Environment는 실제로 길이가 16인 배열이므로, State는 배열의 Index인 0~15 로 올 것이다.
OpenAI GYM의 사용법은 아래의 Github을 참고하시기 바랍니다.
강좌에 나오는 코드는 다음 Github에 구현해 놓았습니다.
https://github.com/whitesoil/ReinforceLearningZeroToAll