요즘엔 당연히 사용하는 방법론들의 시초격인 논문인 것 같다. 2012년도에 출간되어, 지금 기술력으로 보면 단순해 보이지만 중요한 것 같아 첫 리뷰 대상으로 정했다.
ReLU Nonlinearity
Training on Multiple GPUs
Local Response Normalization
Generalization에 도움
: the activity of a neuron computed by applying -th kernel at position
: response normalized activity
lateral inhibition → 번째 주변 개의 채널을 돌면서 더하고 그 값으로 나눈다. 주위 값 눈치를 보는 셈이 된다. 실제 뉴런도 비슷한 방식으로 작동한다.
Overlapping Pooling
Overall Architecture
이미지 픽셀 마다 을 더해준다. 와 는 각각 RGB채널 사이 covriance 행렬의 번째 eigenvector와 eigenvalue이다.
-작성중-