- 규제를 건다
학습을 방해하는게 목적이다.
학습데이터 뿐만아니라, 테스트 데이터에도 잘 동작 할수 있도록 만드는것.
이 의미는 function space 뉴럴네트워크가 만들어내는 함수의 공간속에서 최대한 부드러운 함수로 보자
좀더 실험적인 결과다. 노이즈를 넣으니 잘되더라 !
왜잘되는지는 모른다. 입력데이터에 일부러 노이즈를 넣는다.
데이터 두개를 뽑아서 이 두개를 섞어주는것.
일반적으로 분류문제는 decision 바운더리를 찾고싶은것임.
분류가 일어나는 결정하는 공간을 부드럽게 만들어준다.
cutout - 특정 영역을 빼버림.
Mixup - 강아지와 고양이 두개의 이미지를 고르고 라벨도 포함해서 50대50으로 섞는다.
왜잘되는지 설명보단 이런 방법론을 사용하면 성능이 올라간다.
논란이 많은 논문이다.
원래의 값들이 100으로 가지면 다 0으로 줄여버린다.
Internal Covariate Shift를 줄인다. 그러므로 네트워크가 잘 학습이된다.
뒤에 나온 논문들이 이 내용을 동의 하지 않는다.
일반 적으로 네트워크가 쌓아져있는 상태에서 Batch Normalization 을 사용하면 성능이 올라간다.
각각 노말라이제이션에 관한 방법들.