컨볼루션 신경망 사례연구
컨볼루션층 5개와 완전연결층 3개
테스트 단계에서 앙상블 적용
내부적 성공요인
지역 반응 정규화 (local response normalization)
: 위치가 비슷한것들끼리의 평균값이나 이런 정규화 과정을 통해서 값들을 조절
배치 정규화 (batch normalization)
: 학습 파라미터가 있어서 정규화를 배치단위로 차이가 나는 편지를 맞춰주기위해서 사용
👉 LRN은 단순하게 연산에 의해서 나오는데, BN은 학습에의해서 결정되는 파라미터에의해서 batch들 간의 정규화 과정을 통해서 성능을 끌어올린다.
NIN(network in network) 에서 유래 (GoogLeNet에서 사용됨)
인셉션 모듈 (inception module)
수용장의 다양한 특징을 추출하기 위해 NIN 구조를 확장하여 복수의 병렬적인 컨볼루션 층을 가짐
*수용장: 입력을 얼마만큼 patch
마이크로 네트워크로 Mlpconv 대신 4종류의 컨볼루션 연산 사용
-> 다양한 특징 추출
👉인셉션 모듈을 9개 결합
잔류(잔차) 학습이라는 개념을 이용하여 성능 저하를 피하면서 층 수를 대폭 늘림
(원래의 컨볼루션 신경망은 최적화가 제대로 이루어지지 않음)
잔류 학습은 지름길 연결된 를 더한 에 를 적용 (는 잔류)
지름길 연결을 두는 이유는?
3*3 커널 사용
수학 너무 ㅇㅓ렵다........⭐ (눙물