A.I/RL by Sung Kim

Lecture 2: OpenAI GYM

궁선이 2019. 1. 18. 03:21

이 내용은 Sung Kim 교수님의 모두를 위한 RL 강좌를 정리한 내용입니다.


https://youtu.be/xgoO54qN4lY


―――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――

OpenAI GYM : RL학습에서 Environment 구축을 도와주는 Framework



앞으로 강의에서 사용할 Environment인 Frozen Lake 환경

실제로는 길이가 16인 배열이다.


S : Starting point

F : 얼어있는 영역(안전지대)

H : Hole(위험지대)

G : Goal






Agent : Environment에서 움직이는 캐릭터

Environment : Frozen Lake

Action  : 상하좌우 운동

State : Agent의 위치

Reward : 성공, 실패, 피해 여부


Agent가 Action을 Environment에게 보내면 Environment는 Agent가 위치한 State의 기준에서 Action을 실행한 후, 

Agent에게 Agent의 State(위치), reward(성공, 실패, 피해 여부)를 반환하여준다.

이 때 Environment는 실제로 길이가 16인 배열이므로, State는 배열의 Index인 0~15 로 올 것이다.



OpenAI GYM의 사용법은 아래의 Github을 참고하시기 바랍니다.


강좌에 나오는 코드는 다음 Github에 구현해 놓았습니다.

https://github.com/whitesoil/ReinforceLearningZeroToAll