# confusion matrix

22개의 포스트

Confusion matrix(혼동 행렬) 및 평가지표

이번 포스팅에서는 ML모델의 평가 지표중 하나인 Confusion Matrix에 대해 진행해 볼려구 합니다.모델에 대한 성능 평가를 위해서 일반적으로는 정확도(accuracy)라는 기준을 주로 사용하는데, 정확도만을 이용하여 모델을 평가하기에는 충분하지 않을 수 있습니

2023년 2월 5일
·
0개의 댓글
·
post-thumbnail

분류 성능 평가 지표 - Precision(정밀도), Recall(재현율) and Accuracy(정확도)

기계학습에서 모델이나 패턴의 분류 성능 평가에 사용되는 지표에 대한 설명입니다.

2023년 2월 2일
·
0개의 댓글
·

05 모델 성능 평가

모델의 성능을 평가하는 방식은 다양하다. 우리는 소개된 각 기법을 한꺼번에 다루도록 하겠다.Confusion MatrixROC CurveAUC Score

2023년 1월 23일
·
0개의 댓글
·
post-thumbnail

멋쟁이 사자처럼 AI 스쿨 TIL-40

학습을 통한 예측 성능을 측정하기 위해 예측값과 실제값을 비교하기 위한 표기계가 얼마나 참과 거짓을 혼동하는지 확인하는 데 사용하기 때문에 ‘혼동’행렬이라 명명T, F, P, N 의미TRUE : 모델이 맞췄을 때FALSE : 모델이 틀림Positive : 모델의 예측

2022년 11월 24일
·
0개의 댓글
·
post-thumbnail

Evaluation Metrics for Classification

Confusion matrix 를 만들고 해석할 수 있습니다.정밀도, 재현율 을 이해하고 사용할 수 있습니다.ROC curve, AUC 점수 를 이해하고 사용할 수 있습니다.분류와 회귀에서 사용하는 모델 성능 평가 지표는 각각 다르다.회귀MSE, MAE, RMSE, R

2022년 11월 22일
·
0개의 댓글
·

[Classification] Evaluation Metric

오차행렬(confusion matrix)은 학습된 모델이 얼마나 혼동하고(confused) 있는지 보여주는 지표로, 이진 분류의 예측 오류가 얼마인지, 어떤 유형으로 발생하고 있는지를 나타낸다. 오차 행렬은 실제 클래스 값과 예측 클래스 값을 기준으로 4분면 행렬에 어

2022년 11월 16일
·
0개의 댓글
·

ROC & AUROC

ROC, AUROC는 분류모델의 평가지표입니다. 이 분류지표는 어떤 원리로 작동하는 것일까요? 이를 이해하기 위해서는 Classification의 y^, 즉 예측값이 정확히 무엇인지 먼저 알아야 합니다.

2022년 8월 4일
·
0개의 댓글
·

[D&A 운영진 ML 스터디] 2주차 1차시

정확도(Accuracy): 정확한 예측을 한 비율불균형한 데이터셋을 다룰 때 객관적이지 않음데이터셋에서 라벨이 A인 데이터가 90%, 라벨이 B인 데이터가 10%일 때, 모두 그냥 A로만 예측해도 정확도는 90%가 나옴오차 행렬(Confusion Matrix)오차 행렬

2022년 7월 31일
·
0개의 댓글
·
post-thumbnail

1종 오류, 2종 오류, Confusion Matrix

이제 통계에 대한 기초적인 이야기는 거의 다 끝나가는 것 같다. 아마 이거 쓰고 Variance Bias, 그리고 Odds ratio 까지 쓰면 면접에서 나올만한 통계와 머신러닝 기초 이론은 다 커버되지 않을까 싶다 다음으로 머신러닝 모델, 딥러닝 모델 으로 이어가면

2022년 6월 28일
·
0개의 댓글
·
post-thumbnail

[R] 위스콘신 주 유방암 예측 및 성능평가

[R] 위스콘신 주 유방암 예측 및 성능평가

2022년 5월 6일
·
0개의 댓글
·
post-thumbnail

AIB: N223 Evaluation Metrics for Classification

TP, TN, FP, FN으로 이루어진 매트릭스분류모델의 성능 평가지표실제 양성인데 검사 결과도 양성잘 맞춰서, Positive(1)를 잡아냈다.올바르게 1을 1이라고 예측. 찐양성, 찐양성실제 음성인데 검사 결과도 음성잘 맞춰서 Negative(0)를 잡아냈다.실제

2022년 3월 4일
·
0개의 댓글
·
post-thumbnail

Evaluation Metrics for Classification

[n223] SECTION 02 Sprint 2 Tree Based Model Evaluation Metrics for Classification

2021년 12월 28일
·
0개의 댓글
·
post-thumbnail

TIL | 오차 행렬 (Confusion Matrix)

AIFFEL 노드에서 오차행렬이 나왔었는데 확실하게 이해가 가지 않아서 정리를 한번 해보려고 한다. 정리하고 여러번 보다보면 한번에는 이해하지 못하더라도 확실하게 이해는 할 수 있겠지..싶은 마음으로 :D 오차 행렬 (Confusion Matrix) > Test s

2021년 10월 11일
·
0개의 댓글
·

[TIL] 210819

오늘 한 일 Evaluation Metrics for Classification 공부 keyword : 분류문제 평가지표 confusion matrix 사이킷런에 plotcofusionmatrix 축과 순서를 유의해서 보기! 임계값 (threshold) 정밀도 재현율

2021년 8월 19일
·
0개의 댓글
·

Metric

Evaluation Metrics

2021년 4월 14일
·
0개의 댓글
·
post-thumbnail

Evaluation Metrics in Machine Learning - Confusion Matrix

Confusion Matrix which is often used as an evaluation metrics in binary classification shows how much the model is confused while performing the predi

2021년 1월 13일
·
0개의 댓글
·

피마 인디언 당뇨병 예측 데이터 세트로 머신러닝 평가하기

이번에는 Kaggle의 피마 인디언 당뇨병(Pima Indian Diabetes) 데이터 세트를 이용해 당뇨병 여부를 판단하는 머신러닝 예측 모델을 수립하고, 저번에 작성한 평가 지표를 적용해 보자.

2020년 12월 27일
·
1개의 댓글
·