Weight Decay

조성운·2022년 11월 16일

Weight Decay

  • Loss function에 weight의 제곱합을 패널티 텀으로 주어 loss를 최소화 하는 것을 말한다.
  • L2 regularization, L2 penalty라고도 부른다.
  • overfitting을 방지하기위해 weight decay를 한다.
Loss(w,x)=DataLoss(w,x)+12λw2Loss(w, x) = DataLoss(w,x)+{1\over 2}\lambda||w||^2
wwη(DataLossw+λw)w \leftarrow w - \eta({\partial DataLoss \over \partial w}+\lambda w)
  • λw\lambda w 을 penalty로 더해 DataLossw{\partial DataLoss \over \partial w}가 최소화 되는 것을 막는다.
profile
DL 관련 공부 중입니다

0개의 댓글