# roc auc
05 모델 성능 평가
모델의 성능을 평가하는 방식은 다양하다. 우리는 소개된 각 기법을 한꺼번에 다루도록 하겠다.Confusion MatrixROC CurveAUC Score
[D&A 운영진 ML 스터디] 2주차 1차시
정확도(Accuracy): 정확한 예측을 한 비율불균형한 데이터셋을 다룰 때 객관적이지 않음데이터셋에서 라벨이 A인 데이터가 90%, 라벨이 B인 데이터가 10%일 때, 모두 그냥 A로만 예측해도 정확도는 90%가 나옴오차 행렬(Confusion Matrix)오차 행렬

Evaluation metric survey
imbalanced되어있으면서도, ranking이 중요한 데이터에 대해서(e.g. click이 잘 일어나지 않지만, ctr의 순위를 잘 결정하는것이 중요한 데이터에 대해서) 평가 지표를 찾는다.accuracy, f1score, ROC AUC, PR AUC 등의 여러 지

머신러닝 분류 평가방법
머신러닝 분류 평가 방법 정확도 (Accuracy) 오차행렬(Confusion Matrix) 정밀도(Precision) 재현율(Recall) F1스코어 ROC AUC 이 지표들은 분류 모두에 적용되는 지표이지만, *특히 이진 분류에서 더욱 중요하게 강조하는 지표 1
Evaluation Metrics in Machine Learning - ROC / AUC
Receiver Operation Curve (ROC) and Area Under Curve (AUC) are important evaluation metrics used in evaluating the performance of the binary classifica
피마 인디언 당뇨병 예측 데이터 세트로 머신러닝 평가하기
이번에는 Kaggle의 피마 인디언 당뇨병(Pima Indian Diabetes) 데이터 세트를 이용해 당뇨병 여부를 판단하는 머신러닝 예측 모델을 수립하고, 저번에 작성한 평가 지표를 적용해 보자.