Regularization은 근본적으로 학습을 방해하게 된다. 학습을 방해함으로 테스트 데이터에도 잘 작동하도록 유도하는 방법론이다.
Early stopping
Parameter norm penalty
Data augmentation
Noise robustness
Label smoothing
Dropout
Batch normalization
파라미터가 너무 커지지 않게 하는 방법
를 Parameter Norm Penalty, weight decay라고 부른다.
내가 가지고 있는 데이터를 다양한 방법을 통해 증강시키는 법
예를 들어 강아지 사진을 증강시키려고 할때 라벨이 바뀌지 않는 선에서의 회전, 노이즈 등을 추가하는 방법이다. 단 라벨이 바뀔 정도로 이루어지면 안된다.
Data Augmentation과의 차이점은 두 개의 데이터와 라벨을 섞어서 사용한다.
예를들어 강아지사진과 고양이사진을 반반 섞고, 라벨을 Dog 0.5, Cat 0.5를 줄 수 있다. (Mixup)
Cutout은 이미지 한장에서 일정 영역을 제거하는 방법이다.
CutMix는 Mixup과 비슷하지만 blending하게 섞는게 아니라 특정 영역은 강아지, 특정 영역은 고양이를 추가하는 방법이다.
학습시 weight 일부분을 0의 값으로 바꿔주는 방법이다.
각각의 neuron들이 좀 더 robust할 수 있다로 해석한다.
내가 적용하고자 하는 Layer의 통계량을 정규화 시키는 방법
Internal Covariate를 줄이는 효과가 있다.