티스토리 뷰

A.I/Study

Confusion Matrix

궁선이 2019. 1. 22. 17:13

Confusion Matrix

  • 클래스 분류의 결과를 정리한 표

  • 분류 모델이 정확한지 평가할 때 활용

  • 머신러닝이나 통계적인 classification 문제에서 알고리즘의 성능을 visualization하는 table layout.

  • 트레이닝 된 머신의 예상값과 실제 값을 비교하는 표

  • 불균형한 Data set

    • ex) 14세 이하 10만명당 암 발병인원 14.8명. (암 발병 확률 : 0.014%)

      —> 굳이 머신러닝을 이용하지 않아도 확률이 너무 낮아서 '무조건 암이 아니다' 라고 해도

      정확도(Accuracy)가 99~100%이 나옴. —> 좋은 모델 X --> Confusion matrix 사용

Positive & Negative

  • 이항분류를 할 때 두가지 분류 중 한가지 분류에 더 관심이 많음
  • ex) 화재 경보기 —> 화재 vs 일상 중 화재에 더 관심이 많음
  • 이 때 관심이 더 많은 쪽을 Positive, 그 반대를 Negative 라고 함

TP, TN, FP, FN

Actual condition : 실제 값, Predicted condition : 예상 값

  • True Positive (진양성) : 예측과 실제 모두 P

  • True Negative (진음성) : 예측과 실제 모두 N

  • False Positive (위양성) : 실제로는 N인데 P로 예측된 것

  • False Negative (위음성) : 실제로는 P인데 N으로 예측된 것

  • 앞의 T & F : 예측이 맞았는지 틀렸는지

  • 뒤의 P & N : 예측을 Positive로 했는지, Negative로 했는지

이 4가지 경우를 조합하여 여러가지 지표를 만들수 있음

Error, Accuracy

  • Accuracy (정확도) : 전체 중에서 올바르게 예측한 것이 몇개인가? (1에 가까울 수록 좋음)

  • TP와 TN을 더하여, 전부의 합계로 나눔

True Positive Rate, False Positive Rate

  • True Positive Rate (진양성률) : 실제로 양성인 샘플에서, 양성이라고 판정된 샘플의 비율

    • 검출률(Recall), 감도(Sensitivity), 히트률(Hit Rate), 재현률 등이라고도 함.
    • 의미 : 전체 내가 맞추려는 것 중에서 내가 몇개를 맞췄는가? (1에 가까울 수록 좋음)
  • False Positive Rate (위양성률) : 실제에는 음성인 샘플에서, 양성으로 판정된 샘플의 비율

    • FP/(FP + TN)
    • 오검출률, 오경보률 이라고도 함

True Negative Rate (=Specificity)

  • True Negative Rate (진음성률) : 실제로 음성인 샘플에서, 음성인 것으로 판정된 샘플의 비율

  • 특이도 (Specificity) 라고도 함

Precision

  • Precision (정밀도) : 양성으로 예측한 경우 중 진양성인 경우. 양성예측이 얼마나 정확한가

  • 정밀도에 대한 판단은 양성의 경우를 계산하는 것이 더 좋은 방법

    • 양성예측의 경우, 예측 후 어떠한 행동이 뒤따르는 경우가 많음

      ex) 암 치료나 화재 대피 등.. 이 정밀도가 낮으면 불필요한 행동들을 해야할 수도 있음

    • 음성 예측의 경우, 확인이 어려움

      ex) 면접에서 안 뽑은 사람이 실력자인지 아닌지는 같이 일해보지 않으면 모름

  • Positive Predictive Value (PPV) 라고도 함

  • 의미 : 푼 문제 중에 맞춘 정답 개수가 몇개인가? (1에 가까울 수록 좋음)

F1-score

  • Precision과 Recall의 조화 평균을 이용하여 2개를 모두 고려해서 평가하는 방법
  • 데이터 자체에 Positive 또는 Negative가 많을 경우에는 비율 자체가 편향되어 있기 때문에 조화평균을 이용

The Scoring matrics for multiclass classification

AUC

  • ROC 곡선의 아래쪽 부분
  • 빨&노&파 —> ROC 커브
  • ROC의 밑부분 영역이 클수록 모델의 성능이 우수한 것
    • 그림에서는 빨간 곡선이 가장 훌륭한 모델
  • Reference Line : 0.5로 random 예측하는 것과 같음
    • 즉, 0.5 아래의 것은 아무 쓸모가 없음

분류할 주제가 여러가지일 때에는?

  1. Classification Accuracy
  2. Curve 아래의 ROC area 계산
    1. 튜토리얼
    2. 1번보다 이게 낫다


'A.I > Study' 카테고리의 다른 글

Gradient Descent Optimization for Neural Network  (0) 2019.01.30
Random Forest  (0) 2019.01.28
Decision Tree  (0) 2019.01.28
Data Preprocessing  (0) 2019.01.22
통계적 가설 검정(statistical hypothesis test)  (0) 2019.01.22
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
«   2024/07   »
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31
글 보관함