[metric] AUROC

ma-kjh·2023년 10월 17일
0

metric

목록 보기
1/2

AUC - ROC Curve?

AUC - ROC curve는 분류 문제를 여러 threshold에 대하여 평가하기 위한 평가 지표이다.
ROC는 확률 커브(probability curve)이고, AUC는 분리성(separability)의 정도나 측도를 나타낸다. 이들은 모델이 어느정도로 클래스들 사이를 구분할 수 있는가에 대해 알려주며, AUC가 높을수록 모델은 0 class는 0으로 1 class는 1로 더 잘 예측한다.

ROC curve는 x축이 FPT TPR이 y축인 plot을 따르며 아래 그림을 따른다.

from wickpedia

먼저 위 plot을 이해하기 위해서는 용어들에 대해 알아놓을 필요성이 있다.

AUC - ROC Curve에 사용되는 용어 정의

TPR (True Positive Rate) / Recall / Sensitivity

TPR / Recall/Sensitivity=TPTP+FN\displaystyle{\text{TPR / Recall/Sensitivity}={TP\over{TP+FN}}}

Specificity

Specificity=TNTN+FP\displaystyle{\text{Specificity}={TN\over{TN+FP}}}

FPR

FPT=1Specificity=FPTN+FP\displaystyle{\text{FPT}=1-\text{Specificity}={FP\over{TN+FP}}}

Reference

https://towardsdatascience.com/understanding-auc-roc-curve-68b2303cc9c5
https://en.wikipedia.org/wiki/Receiver_operating_characteristic

profile
거인의 어깨에 올라서서 더 넓은 세상을 바라보라 - 아이작 뉴턴

0개의 댓글