이 내용은 Sung Kim 교수님의 모두를 위한 RL 강좌를 정리한 내용입니다. https://youtu.be/MQ-3QScrFSI ------------------------------------------------------------------------------------------------------------------------------------------------- 3강에서 배운 Dummy Q-learning의 단점은 바로 기존에 학습된 Policy로만 계속 움직인다는 것. Exploit vs Exploration Exploit : 기존에 학습된 경로로 이동한다.-> 기존에 가던 식당을 간다. Exploration : 새로운 경로를 찾아 나서본다.-> 새로운 식당을 찾아 나서 본..
Confusion Matrix클래스 분류의 결과를 정리한 표분류 모델이 정확한지 평가할 때 활용머신러닝이나 통계적인 classification 문제에서 알고리즘의 성능을 visualization하는 table layout.트레이닝 된 머신의 예상값과 실제 값을 비교하는 표불균형한 Data setex) 14세 이하 10만명당 암 발병인원 14.8명. (암 발병 확률 : 0.014%)—> 굳이 머신러닝을 이용하지 않아도 확률이 너무 낮아서 '무조건 암이 아니다' 라고 해도정확도(Accuracy)가 99~100%이 나옴. —> 좋은 모델 X --> Confusion matrix 사용Positive & Negative이항분류를 할 때 두가지 분류 중 한가지 분류에 더 관심이 많음ex) 화재 경보기 —> 화재 v..
Data PreprocessingMissing dataABCD123456NaN8101112NaNNaN : 손실된 데이터 (누락값)목표 : 손실된 데이터 문제를 해결해야한다.1. 손실된 데이터가 있는 row(데이터) 또는 col(특성) 을 제거데이터가 손실된 row 들을 모두 제거한다.ABCD1234데이터가 손실된 column 들을 모두 제거한다.AB12561011-> 단점 : 도움이 될 수 있는 다른 데이터도 버릴 수 있다.2. 손실된 데이터에 영향을 받지 않는 학습 모델을 사용한다.Decision Tree 기반의 학습 모델(e.g. Random Forest) 등은 누락값에 영향을 받지 않아 데이터를 그대로 사용할 수 있다..그러나 Linear Regression 이나 SGD 알고리즘은 누락값이 있을 때..
통계적 가설 검정(statistical hypothesis test)0. 정의통계적 추측의 하나로서, 모집단 실제의 값이 얼마가 된다는 주장과 관련해, 표본의 정보를 사용해서 가설의 합당성 여부를 판정하는 과정을 의미한다.1. 유의확률(p-value)Probability value귀무가설이 맞다는 전제 하에, 표본에서 실제로 관측된 통계치와 같거나 더 극단적인 통계치가 관측될 확률관찰된 데이터가 귀무가설과 양립하는 정도를 0에서 1 사이의 수치로 표현한다.p-value가 작을수록 그 정도가 약하다고 보며, 유의수준 (대개 0.05나 0.01 등) 보다 작을 경우 귀무가설을 기각하고 대립가설을 채택하는 것이 관례이다.양측 꼬리 유의 확률우측 꼬리 유의 확률2. 귀무가설(H0)Null Hypothesis부정..
이 내용은 Sung Kim 교수님의 모두를 위한 RL 강좌를 정리한 내용입니다. https://youtu.be/Vd-gmo-qO5E ―――――――――――――――――――――――――――――――――――――――――――――――――――――― Q-Learning이란 Q function에 현재 State와 현재 취할 수 있는 Action들의 값을 넣었을 때 Q function의 값이 가장 큰 Action을 취하는 것을 말합니다. 다시말해 State마다 Q에게 물어봐서 길을 찾아갑니다. (안녕 Q야 S에서 상,하,좌,우 중 어디로 가야하니) Q function이란 state-action value function 이라고도 합니다. state-action value function의 개념에 대해서는 Sung Kim 교수님..
이 내용은 Sung Kim 교수님의 모두를 위한 RL 강좌를 정리한 내용입니다. https://youtu.be/xgoO54qN4lY ―――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――OpenAI GYM : RL학습에서 Environment 구축을 도와주는 Framework 앞으로 강의에서 사용할 Environment인 Frozen Lake 환경실제로는 길이가 16인 배열이다. S : Starting pointF : 얼어있는 영역(안전지대)H : Hole(위험지대)G : Goal Agent : Environment에서 움직이는 캐릭터Environment : Frozen LakeAction : 상하좌우 운동State : Agent의 위치Rewar..
이 내용은 Sung Kim 교수님의 모두를 위한 RL 강좌를 정리한 내용입니다. https://youtu.be/dZ4vw6v3LcA ――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――――― Reinforcement : SCIENCE-based & REWARD-based methods. Nature of Learning- We learn from past expensive- Reinforcement learning: computational approach to learning from interaction. Actor (or Agent) : 쥐Action : 미로에서의 이동Environment : 미로Reward: 출구를 ..
- Total
- Today
- Yesterday
- Memory segmetation
- branch
- AWS
- Markov Decision Process
- gitgnore
- #handsonlab
- rl
- #ab
- MDP
- System
- git
- #ausg
- Reinforcement Learning
- #AWS
- Preprocessing
- 통계적 가설 검정
- 강화학습
- p-value
- MySQL
- commands
- Gradient descent algorithm
- sequelize
- OS
- Confustion Matrix
- Android
- ausg
- Linux
- Reinforcement Learniing
- Android Studio
- Algorithm
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |