# ROC curve

Lending Club Defualt Detection Review
혹시 머신러닝을 통해 classification을 수행하던중 평가 metric을 그냥 무작정 accuracy로 설정해본적이 있는가? 또는 그저 아무생각 없이 해당 metric을 왜 사용하는지도 모르고 사용해본적은 있는가? 나는 일년정도 머신러닝을 공부했음에도 불구하고

Evaluation Metrics for Classification
Confusion matrix 를 만들고 해석할 수 있습니다.정밀도, 재현율 을 이해하고 사용할 수 있습니다.ROC curve, AUC 점수 를 이해하고 사용할 수 있습니다.분류와 회귀에서 사용하는 모델 성능 평가 지표는 각각 다르다.회귀MSE, MAE, RMSE, R
[Classification] Evaluation Metric
오차행렬(confusion matrix)은 학습된 모델이 얼마나 혼동하고(confused) 있는지 보여주는 지표로, 이진 분류의 예측 오류가 얼마인지, 어떤 유형으로 발생하고 있는지를 나타낸다. 오차 행렬은 실제 클래스 값과 예측 클래스 값을 기준으로 4분면 행렬에 어

[ADsP] 정형 데이터 마이닝 - 데이터 마이닝
Data mining은 대용량 데이터에서 의미있는 데이터 패턴 을 파악하거나 예측하여 의사결정에 활용하는 방법이다.거대한 양의 데이터 속에서 쉽게 드러나지 않는 유용한 정보를 찾아내는 과정기업이 보유한 고객, 거래, 상품데이터 등과 이외의 기타 외부 데이터를 기반
ROC곡선
: 전체 데이터 중 맞힌 비율(TP + TN + FP + FN) / (TP + TN): 참이라고 예측한 것 중에 실제 참의 비율(TP + FP) / TP: 참인 데이터 중에서 참이라고 예측한 것(TP + FN) / TP: 실제 참이 아닌데, 잘못 예측한 경우(FP +

AIB: N223 Evaluation Metrics for Classification
TP, TN, FP, FN으로 이루어진 매트릭스분류모델의 성능 평가지표실제 양성인데 검사 결과도 양성잘 맞춰서, Positive(1)를 잡아냈다.올바르게 1을 1이라고 예측. 찐양성, 찐양성실제 음성인데 검사 결과도 음성잘 맞춰서 Negative(0)를 잡아냈다.실제

Evaluation Metrics for Classification
[n223] SECTION 02 Sprint 2 Tree Based Model Evaluation Metrics for Classification

[AI Bootcamp] N223 - Evaluation Metrics for Classification
confusion matrix / ROC curve / AUC score / F-beta / precision - recall
[TIL] 210819
오늘 한 일 Evaluation Metrics for Classification 공부 keyword : 분류문제 평가지표 confusion matrix 사이킷런에 plotcofusionmatrix 축과 순서를 유의해서 보기! 임계값 (threshold) 정밀도 재현율