confusion_matrix
함수를 통한 예제from sklearn.metrics import confusion_matrix
pipe_svc.fit(X_train, y_train)
y_pred = pipe_svc.predict(X_test)
confmat = confusion_matrix(y_true=y_test, y_pred=y_pred)
print(confmat)
[[71 1]
[ 2 40]]
ECC (예측 오차) : 전체 중 잘못 분류된 비율
ACC (정확도): 전체 중 올바르게 분류된 비율
TPR(True Positive Rate) : 진짜 양성 비율
recall
이라고도 표현FPR (False Positive Rate) : 거짓 양성 비율
PRE (정확도. 정밀도)
precision
from sklearn.metrics import precision_score, recall_score, f1_score
print('재현율(TRP=REC): %.3f' % recall_score(y_true=y_test, y_pred=y_pred))
print('정밀도(PRE): %.3f' % precision_score(y_true=y_test, y_pred=y_pred))
print('F1: %.3f' % f1_score(y_true=y_test, y_pred=y_pred))
roc_curve
, roc_auc_score
함수로 ROC, ROC AUC 계산