AUC - ROC curve는 분류 문제를 여러 threshold에 대하여 평가하기 위한 평가 지표이다.ROC는 확률 커브(probability curve)이고, AUC는 분리성(separability)의 정도나 측도를 나타낸다.Referencehttps://
Kullback-Leibler divergence는 정보이론에서 두 분포간의 차이를 정량적인 지표로 통계적으로 측정해주는 지표이다.KL divergence는 non-symmetric metric으로 상대적인 엔트로피(relative entropy)를 측정해주는 작업이다
Expected Calibration Error (ECE)는 모델이 예측한 확률과 실제 정확도 간의 차이를 측정하는 지표.모델이 "0.8의 확률로 맞다"라고 예측할 때 실제로 약 80%의 정확도로 맞는지를 확인하여, 모델의 신뢰도(Confidence)를 평가.$$ECE
ROUGEBLUEROUGE (Recall-Oriented Understudy for Gisting Evaluation)는 자동 요약이나 기계 번역 등의 자연어 생성 품질을 평가하기 위한 지표. ROUGE는 주로 생성된 텍스트와 기준(참조) 텍스트 사이에 얼마나 많은 n