CS/BCS/Focal Loss

Jm-baek·2021년 12월 24일
post-thumbnail

본 내용은 참고 사이트를 읽고 정리한 내용입니다.
궁금한 부분은 참고사이트를 이용해주시면 감사하겠습니다.

entropy - 최적의 전략 하에서 필요한 질문에 대한 개수
cross entropy - 어떤 문제에 대해 특정 전략을 쓸 때, 예상되는 질문 개수에 대한 기대값

CS(Cross Entropy)

  • 잘 못 에측한 경우에 대하여 패널티를 부여하는 것에 초첨.
  • positive와 negative의 비중을 제대로 조율 못한다.

원래 cross entropy 식은 아래와 같다.
p는 참값 또는 목표 확률값이다. y는 학습한 확률값

CE(p,y)={log(p),  y=1log(1p),  otherwiseCE(p,y)= \begin{cases} -\log(p),\; y =1 \\ -\log(1-p),\; otherwise \\ \end{cases}

여기에 p라는 조건을 붙게 되면

pt={p,  y=11p,  otherwisep_{t}= \begin{cases} p,\; y =1 \\ 1-p,\; otherwise \\ \end{cases}

아래와 같이 깔끔하게 정리가 된다.

CE(pt)=log(pt)CE(p_{t})= -\log(p_{t})

Balanced Cross Entropy

  • cross entropy에 α\alpha라는 가중치를 조절하는 값?변수?를 추가하게된다.
  • positive/negative를 조절할 수 있게된다.

α\alpha의 조건식은 아래와 같다.

α={α,  y=11α,  otherwise\alpha= \begin{cases} \alpha,\; y =1 \\ 1-\alpha,\; otherwise \\ \end{cases}

최종 Balanced Cross Entropy 식이다.

CE(pt)=αlog(pt)CE(p_{t})= -\alpha\log(p_{t})

focal loss 논문 이미지

그림을 보면 CE(p)와 FL(p)의 차이점이 (1pt)γ(1-p_{t})^{\gamma}가 추가된 것을 알 수 있다.

Focal Loss

  • non-alpha form

    FL(pt)=(1pt)γlog(pt)FL(p_{t}) = -(1-p_{t})^{\gamma}log(p_{t})\\
  • alpah form

    FL(pt)=αt(1pt)γlog(pt)FL(p_{t}) = -\alpha_{t}(1-p_{t})^{\gamma}log(p_{t})\\

참고 사이트

profile
비전공자의 데이터사이언스 생존기

0개의 댓글