# evaluation
Training Error vs Test Error
우리는 아래과 같이 Training Error와 Test Error를 정의하고 사용한다.Training Error Rate와 Test Error Rate는 다르다.Model이 Ground-Truth와 가장 비슷한 복잡도를 가질 때 최적의 Test Error를 갖는다.

파이썬 머신러닝 완벽 가이드 - 4. Evaluation
실제 데이터에서 예측 데이터가 얼마나 같은지 판단하는 지표$$⁍ $$특히 정확도는 불균형한 레이블 값 분포에서는, 적합한 평가 지표가 아님ex) MNIST 데이터 셋을 다중분류에서 이진분류로 바꾸면 (7을 True, 나머지를 False) ⇒ 0과 1중 0을 찍으면 90

Popular Accuracy Measures in Top-k Recommendation
(2020/11/03 작성)추천 시스템은 수 많은 아이템 중에서 사용자가 좋아할만 한 소수의 아이템을 제공합니다. 더욱 나은 추천을 하기 위해서는 "좋은 추천 시스템"이라고 평가할 수 있어야 하며, 이에 사용되는 평가 지표는 다양합니다. 이 글에서는 추천의 정확도를 평
Using Django querysets effectively
https://blog.etianen.com/blog/2013/06/08/django-querysets/ https://docs.djangoproject.com/en/3.1/ref/models/querysets/#iterator queryset cache evalua
Evaluation Metrics in Machine Learning - ROC / AUC
Receiver Operation Curve (ROC) and Area Under Curve (AUC) are important evaluation metrics used in evaluating the performance of the binary classifica

Evaluation Metrics in Machine Learning - F1 Score
F1-score is the weighted average of precision and recall. Hence, since it takes both FP and FN into account, better the balance between precision and

Evaluation Metrics in Machine Learning - Precision / Recall
Precision and Recall are evaluation metrics which emphasize the performance in positive data-set. Precision = (TP) / (TP + FP) ratio of correctly pr

Evaluation Metrics in Machine Learning - Confusion Matrix
Confusion Matrix which is often used as an evaluation metrics in binary classification shows how much the model is confused while performing the predi
Evaluation Metrics in Machine Learning - Accuracy
So far, we have studied various techniques (ex- train/test-split, GridSearchCV, Standardization, Normalization, Data Preprocessing) to enhance our mac

(번역) 머신러닝 모델의 평가지표
과연 어떻게 머신러닝 모델의 완성도를 측정할까? 언제 학습(train)과 학습평가(evaluation)를 끝내고, 완성했다고 말할 수 있을까? 이 글을 통해, 이 질문에 대한 답을 찾아보자.