이 내용은 Sung Kim 교수님의 모두를 위한 RL 강좌를 정리한 내용입니다. https://youtu.be/w9GwqPx7LW8 RL 시뮬레이션에 도움이 되는 사이트http://computingkoreanlab.com/app/jAI/jQLearning/---------------------------------------------------------------------------------------------------------------------- 기본 Q-learning에서 사용하던 Q-table은 실제 문제에 적용시키기에는 무리가있다. 왜냐하면 Q-Table은 Array를 사용하고 있는데, 실제 문제를 Array로 나타낸다면 엄청난 리소스가 필요하다. 예를 들어 아래의 게임화면의 경우..
이 내용은 Sung Kim 교수님의 모두를 위한 RL 강좌를 정리한 내용입니다. https://youtu.be/6KSf-j4LL-c --------------------------------------------------------------------------------------------------------------------------------------- 지금 까지 다루었던 World 는 모두 Deterministic world. 그러나 현실 세계는 Non-deterministic 요소를 가지고 있다. Deterministic model : the output of the model is fully determined by the parameter values and the initia..
이 내용은 Sung Kim 교수님의 모두를 위한 RL 강좌를 정리한 내용입니다. https://youtu.be/MQ-3QScrFSI ------------------------------------------------------------------------------------------------------------------------------------------------- 3강에서 배운 Dummy Q-learning의 단점은 바로 기존에 학습된 Policy로만 계속 움직인다는 것. Exploit vs Exploration Exploit : 기존에 학습된 경로로 이동한다.-> 기존에 가던 식당을 간다. Exploration : 새로운 경로를 찾아 나서본다.-> 새로운 식당을 찾아 나서 본..
Confusion Matrix클래스 분류의 결과를 정리한 표분류 모델이 정확한지 평가할 때 활용머신러닝이나 통계적인 classification 문제에서 알고리즘의 성능을 visualization하는 table layout.트레이닝 된 머신의 예상값과 실제 값을 비교하는 표불균형한 Data setex) 14세 이하 10만명당 암 발병인원 14.8명. (암 발병 확률 : 0.014%)—> 굳이 머신러닝을 이용하지 않아도 확률이 너무 낮아서 '무조건 암이 아니다' 라고 해도정확도(Accuracy)가 99~100%이 나옴. —> 좋은 모델 X --> Confusion matrix 사용Positive & Negative이항분류를 할 때 두가지 분류 중 한가지 분류에 더 관심이 많음ex) 화재 경보기 —> 화재 v..
Data PreprocessingMissing dataABCD123456NaN8101112NaNNaN : 손실된 데이터 (누락값)목표 : 손실된 데이터 문제를 해결해야한다.1. 손실된 데이터가 있는 row(데이터) 또는 col(특성) 을 제거데이터가 손실된 row 들을 모두 제거한다.ABCD1234데이터가 손실된 column 들을 모두 제거한다.AB12561011-> 단점 : 도움이 될 수 있는 다른 데이터도 버릴 수 있다.2. 손실된 데이터에 영향을 받지 않는 학습 모델을 사용한다.Decision Tree 기반의 학습 모델(e.g. Random Forest) 등은 누락값에 영향을 받지 않아 데이터를 그대로 사용할 수 있다..그러나 Linear Regression 이나 SGD 알고리즘은 누락값이 있을 때..
통계적 가설 검정(statistical hypothesis test)0. 정의통계적 추측의 하나로서, 모집단 실제의 값이 얼마가 된다는 주장과 관련해, 표본의 정보를 사용해서 가설의 합당성 여부를 판정하는 과정을 의미한다.1. 유의확률(p-value)Probability value귀무가설이 맞다는 전제 하에, 표본에서 실제로 관측된 통계치와 같거나 더 극단적인 통계치가 관측될 확률관찰된 데이터가 귀무가설과 양립하는 정도를 0에서 1 사이의 수치로 표현한다.p-value가 작을수록 그 정도가 약하다고 보며, 유의수준 (대개 0.05나 0.01 등) 보다 작을 경우 귀무가설을 기각하고 대립가설을 채택하는 것이 관례이다.양측 꼬리 유의 확률우측 꼬리 유의 확률2. 귀무가설(H0)Null Hypothesis부정..
- Total
- Today
- Yesterday
- 강화학습
- Memory segmetation
- Algorithm
- Linux
- Android
- commands
- Android Studio
- p-value
- #AWS
- rl
- #ab
- Reinforcement Learniing
- Preprocessing
- ausg
- Confustion Matrix
- git
- System
- branch
- Gradient descent algorithm
- MDP
- #handsonlab
- OS
- Reinforcement Learning
- gitgnore
- sequelize
- MySQL
- Markov Decision Process
- #ausg
- 통계적 가설 검정
- AWS
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |