eric9687.log
로그인
eric9687.log
로그인
클래스의 불균형에 대응하기
eric9687
·
2022년 1월 18일
팔로우
0
Class Imblance
0
Class Imbalance
데이터의 클래스가 불균형을 이룰때, F1-Score를 모델의 성능 지표로 사용
weight balancing
oversampling과 downsampling
Weight balancing
(정확도가 떨어지는) 특정 클래스에 더 큰 가중치를 두고 loss를 계산하며 학습하는 방법.
focal loss
object detection 분야에서 one-stage detector가 two-stage detector보다 class imblance에 취약함을 보완하기 위해 고안됨.
cross entropy는 잘못 예측된 경우에 패널티를 부여하는 방법.
object detection에서, background와 같은 Easy Negative는 일반적으로 정확도는 높으나, 다양하기때문에 전체 loss값은 커지게됨
focal loss는 crossentropy의 문제점을 보완하기 위해서 마지막에 출력되는 각 클래스의 probability에서 가장 큰 크래스에 loss를 크게 줄이고, 작은 클래스에는 loss를 적게 줄이는 방향으로 학습 진행.
Oversampling과 Undersampling
학습 데이터를 샘플링할때,
undersampling은 많은 클래스에 대해서 적게, 적은 클래스는 많게
oversampling은 많은 클래스만큼 적은 클래스의 데이터를 여러번(중복,복사)
그외의 방법론
Anomaly Detection
eric9687
그러나 먼저 된 자로서 나중되고 나중 된 자로서 먼저될 자가 많으니라(마:19:30)
팔로우
이전 포스트
모델을 효율적이고 가볍게
다음 포스트
정상 데이터로만 결함을 검출하는 Anomaly Detection
0개의 댓글
댓글 작성