# f1 score

9개의 포스트

Macro F1 Score

$F1\\ Score$ : $Recall$과 $Precision$의 조화 평균 → $F1\\ Score = \\frac {2}{\\frac{1}{Recall} + \\frac {1}{Precision}}$ → $Recall = \\frac{True\\ Positi

2021년 12월 25일
·
0개의 댓글
post-thumbnail

Named Entity Recognition with BiLSTM + CNN

이번 글에서는 여기서 사용한 데이터셋과 전처리를 이용하여 다른 모델을 만들어 볼 것이다. 이전에서는 BiLSTM을 이용했지만 이번에는 BiLSTM과 CNN을 동시에 이용하여 만들어보자. 이번 내용에서는 단어(Word)와 글자(Character)의 차이를 헷갈리지 않도

2021년 9월 1일
·
0개의 댓글
post-thumbnail

Named Entity Recognition with BiLSTM

이번에는 이전글의 두번째 버전으로 새로운 파일로 실습해보자.

2021년 9월 1일
·
0개의 댓글
post-thumbnail

Evaluation Metrics in Machine Learning - F1 Score

F1-score is the weighted average of precision and recall. Hence, since it takes both FP and FN into account, better the balance between precision and

2021년 1월 13일
·
0개의 댓글

머신러닝 평가(Evaluation)

머신러닝은 데이터 가공/변환, 모델 학습/예측 그리고 평가의 프로세서로 구성된다.

2020년 12월 26일
·
0개의 댓글

분류기 평가 지표 간단 정리

언제나 헷갈리는 정밀도, 정확도, 재현율 머신러닝에 입문한지 얼마 안되는 초짜라 분류기의 평가 지표는 언제나 헷갈립니다. 익숙해졌다고 또는 다 외웠다고 자만(근자감)했을때 누군가 물어보면 어버버하면서 제대로된 설명이나 답을 못하는 경우가 많았습니다. 이 글을 쓰는

2020년 6월 12일
·
2개의 댓글
post-thumbnail

분류 모델의 평가 방법

분류모델의 평가방법에 대해 알아봅시다.정확도만 가지고 분류 모델을 평가하면 안될까?(정확도: 전체의 데이터 중에서 올바르게 예측한 비율)결론은 아니다.다음과 같은 예시가 있다.전체 데이터에서 90%는 고양이, 10%는 강아지다.데이터가 뭐든지 상관없이 전부 모든데이터를

2020년 4월 11일
·
0개의 댓글