[metric] AUROC

ma-kjh·2023년 10월 17일
0

metric

목록 보기
1/4

AUC-ROC Curve란?

AUC-ROC Curve는 분류 모델의 성능을 다양한 임계값(threshold)에서 평가하기 위한 지표다.

  • ROC (Receiver Operating Characteristic) Curve: 확률 곡선(Probability Curve)으로, 모델이 Positive와 Negative 클래스를 얼마나 잘 구분하는지 보여준다.
  • AUC (Area Under the Curve): ROC Curve 아래 면적으로, 모델의 클래스 분리 능력(separability)을 나타낸다. AUC 값이 높을수록 모델의 분류 성능이 더 뛰어나다.

ROC Curve 구성

ROC Curve는 FPR (False Positive Rate)x축, TPR (True Positive Rate)y축으로 그린 그래프다. 모델의 임계값 변화에 따른 TPR과 FPR의 관계를 나타내며, 아래 그림과 같은 형태를 가진다.

ROC Curve Example


AUC-ROC Curve에서 사용하는 주요 용어

1. TPR (True Positive Rate) / Recall / Sensitivity

실제로 Positive인 샘플을 얼마나 정확히 예측했는지를 나타낸다.

TPR / Recall / Sensitivity=TPTP+FN\text{TPR / Recall / Sensitivity} = \frac{\text{TP}}{\text{TP} + \text{FN}}

2. Specificity

실제로 Negative인 샘플을 얼마나 정확히 예측했는지를 나타낸다.

Specificity=TNTN+FP\text{Specificity} = \frac{\text{TN}}{\text{TN} + \text{FP}}

3. FPR (False Positive Rate)

실제로 Negative인 샘플을 Positive로 잘못 예측한 비율이다. Specificity와의 관계는 다음과 같다.

FPR=1Specificity=FPTN+FP\text{FPR} = 1 - \text{Specificity} = \frac{\text{FP}}{\text{TN} + \text{FP}}

요약

  • AUC 값은 모델의 분류 성능을 단일 값으로 나타낸다.
    • AUC 값이 1.0에 가까울수록 완벽한 분류 성능을 가진 모델이다.
    • AUC 값이 0.5에 가까울수록 무작위로 예측하는 모델과 다를 바 없다.
  • ROC Curve는 모델의 임계값 변화에 따른 성능을 비교하거나 확인할 때 유용하다.

참고 자료

profile
거인의 어깨에 올라서서 더 넓은 세상을 바라보라 - 아이작 뉴턴

0개의 댓글