Lecture 2 : Markov Decision Process
본 내용은 David Silver 교수님의 강의를 듣고 정리한 내용입니다. https://youtu.be/lfHX2hHRMVQ1. IntroductionMarkov Decision Processes formally describe an environment for reinforcement learningWhere the environment is fully observable2. Markov Process1) Markov PropertyThe future is independent of the past given the present (현재의 미래는 현재의 과거로부터 독립적이다)시작 S1 부터 미래 St+1에 도달할 확률과, 현재 St에서 St+1에 도달할 확률이 동일하다.현재는 과거의 미래이며, 현재는..
A.I/RL by David Silver
2019. 2. 18. 19:36
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- OS
- p-value
- rl
- sequelize
- Reinforcement Learniing
- Confustion Matrix
- Algorithm
- branch
- 강화학습
- git
- gitgnore
- Android
- 통계적 가설 검정
- Gradient descent algorithm
- #AWS
- Linux
- AWS
- #ausg
- Android Studio
- MySQL
- Memory segmetation
- ausg
- commands
- #ab
- Preprocessing
- MDP
- Markov Decision Process
- #handsonlab
- Reinforcement Learning
- System
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
글 보관함