Precision 과 Recall은 반비례 하는 경향이 있음. 두 값을 종합해서 알고리즘의 성능 평가 필요
Confidence 레벨에 대한 threshold 값의 변화에 의한 모델의 성능을 평가하는 방법
💡 Confidence: 검출한 것에 대해 알고리즘이나 얼마나 확신이 있는 지를 알려주는 값
detect 할 때 Confidence 레벨에 대해 Threshold 값을 부여해서 특정값 이상이 되어야 검출된 것으로 인정
Confidence 레벨에 대한 Threshold 값의 변화에 따라 Precision과 Recall 값들도 달라지는 것을 그래프로 나타낸 것