# auc

ROC_curve,AUC
roc_curve 는 임계값을 변화함에 따라 fpr과 tpr의 변화를 나타낸 plot으로 y=x를 기준으로 위에그려지는 포물선을 보고 평가할 수있다이때 roc_curve밑에 값을 auc라고 하는데 이 auc값은 0.5보다 크고 1보다 작은 값으로 1에 가까울수록 좋다고

머신러닝 3
교재 150p정밀도는 예측값 1기준으로 판단 (fp+tp) -> 분모tp / fp + tp재현율은 실제값 1기준으로 판단 (fn+tp) -> 분모tp / fn + tp정확도 = 내가 맞춘 개수 / 전체 데이터 개수균형이 안 맞은 이진 분류일 때는 정확도가 높게 나와 정
[Classification] Evaluation Metric
오차행렬(confusion matrix)은 학습된 모델이 얼마나 혼동하고(confused) 있는지 보여주는 지표로, 이진 분류의 예측 오류가 얼마인지, 어떤 유형으로 발생하고 있는지를 나타낸다. 오차 행렬은 실제 클래스 값과 예측 클래스 값을 기준으로 4분면 행렬에 어

파이썬 머신러닝 완벽 가이드 - 4. Evaluation
실제 데이터에서 예측 데이터가 얼마나 같은지 판단하는 지표$$⁍ $$특히 정확도는 불균형한 레이블 값 분포에서는, 적합한 평가 지표가 아님ex) MNIST 데이터 셋을 다중분류에서 이진분류로 바꾸면 (7을 True, 나머지를 False) ⇒ 0과 1중 0을 찍으면 90

AIB: N231 Choose Your ML Problems
실무에서 데이터과학자와 분석가들은 다음과 같은 프로세스를 거치며 프로젝트를 진행.비즈니스 문제실무자들과 대화를 통해 문제를 발견데이터 문제문제와 관련된 데이터를 발견데이터 문제 해결데이터 처리, 시각화머신러닝/통계비즈니스 문제 해결데이터 문제 해결을 통해 실무자들과 함

AIB: N223 Evaluation Metrics for Classification
TP, TN, FP, FN으로 이루어진 매트릭스분류모델의 성능 평가지표실제 양성인데 검사 결과도 양성잘 맞춰서, Positive(1)를 잡아냈다.올바르게 1을 1이라고 예측. 찐양성, 찐양성실제 음성인데 검사 결과도 음성잘 맞춰서 Negative(0)를 잡아냈다.실제
[인사이드 머신러닝] 분류모델의 성능 평가를 위한 지표들
분류기의 성능을 평가하기 위한 주요 지표와 방법을 알아보자. Confusion Matrix (오차행렬)
Evaluation Metrics in Machine Learning - ROC / AUC
Receiver Operation Curve (ROC) and Area Under Curve (AUC) are important evaluation metrics used in evaluating the performance of the binary classifica
ROC / AUC 정리
ROC와 AUC 개념 이해를 도와주는 블로그 를 참고하여 작성했습니다. ROC와 AUC는 분류모델의 성능을 보여주는 지표입니다. 분류모델이라고 하면 Y=0과 Y=1의 두가지 종속변수를 예측하는 모델을 생각하면 됩니다. ROC와 AUC는 이 모델의 성능 즉, 예측 정확성

분류 모델의 평가 방법
분류모델의 평가방법에 대해 알아봅시다.정확도만 가지고 분류 모델을 평가하면 안될까?(정확도: 전체의 데이터 중에서 올바르게 예측한 비율)결론은 아니다.다음과 같은 예시가 있다.전체 데이터에서 90%는 고양이, 10%는 강아지다.데이터가 뭐든지 상관없이 전부 모든데이터를