input(입력 데이터)
feature extraction(특징이 추출되는 부분 Conv~Pooling)
classification(분류를 위한 신경망)
cnn은 이미지의 공간적 특성을 보존하며 학습할 수 있음(이미지의 일부분을 훑으면서 연산이 진행되고 특징을 잡아내면서 학습하기 때문에 층이 깊어지더라도 공간적 특정을 보존함)
구조
- 인풋 레이어, 3개의 컨볼루션 레이어(c1, c3, c5), 2개의 서브 샘플링(s2, s4), 1층의 full-connected 레이어, 아웃풋 레이어
- c1부터 f6까지 활성화 함수로 tanH을 사용함
detail/retrospectives
- relu를 처음 사용함
- Norm layer를 사용했으나 이제는 더이상 사용하지 않음(필요성을 못느끼기 때문)
- 무거운 데이터 증강
- dropout 0.5
- batch size 128
- SGD Momentum 0.9
- learning rate 1e-2
- L2 가중치 감소 5e-4
- 7 CNN 앙상블: 18.2% => 15.4%로 에러를 줄이게 됨
residual connection
- 층을 거친 데이터의 출력에 거치지 않은 출력을 더해줌
- 이 과정덕에 역전파 시 미분을 적용해도 1이상의 값으로 보존되어 기울기 소실 문제를 해결해줌