클래스의 불균형에 대응하기

eric9687·2022년 1월 18일
0
post-custom-banner

Class Imbalance

  • 데이터의 클래스가 불균형을 이룰때, F1-Score를 모델의 성능 지표로 사용
  • weight balancing
  • oversampling과 downsampling

Weight balancing

  • (정확도가 떨어지는) 특정 클래스에 더 큰 가중치를 두고 loss를 계산하며 학습하는 방법.
  • focal loss
    • object detection 분야에서 one-stage detector가 two-stage detector보다 class imblance에 취약함을 보완하기 위해 고안됨.
    • cross entropy는 잘못 예측된 경우에 패널티를 부여하는 방법.
    • object detection에서, background와 같은 Easy Negative는 일반적으로 정확도는 높으나, 다양하기때문에 전체 loss값은 커지게됨
    • focal loss는 crossentropy의 문제점을 보완하기 위해서 마지막에 출력되는 각 클래스의 probability에서 가장 큰 크래스에 loss를 크게 줄이고, 작은 클래스에는 loss를 적게 줄이는 방향으로 학습 진행.

Oversampling과 Undersampling

  • 학습 데이터를 샘플링할때,
    • undersampling은 많은 클래스에 대해서 적게, 적은 클래스는 많게
    • oversampling은 많은 클래스만큼 적은 클래스의 데이터를 여러번(중복,복사)

그외의 방법론

  • Anomaly Detection
profile
그러나 먼저 된 자로서 나중되고 나중 된 자로서 먼저될 자가 많으니라(마:19:30)
post-custom-banner

0개의 댓글