tanh 활성화 함수가 쓰였다면, AlexNet 에서는 처음으로 ReLU 활성화 함수가 사용됨 -> 수렴 속도 개선


더 적은 parmaters 사용
1 * 1 합성곱 필터 : 연산량 줄이는 목적, 입력 데이터 채널 수를 줄일 수 있음.Bottleneck 추가해 연산량 절반 이상 줄일 수 있음.
Residual block -> 잔차를 최소화 하고자 학습Residual Mapping : ResBlock 의 CONV 층을 통과한 값과 통과하지 않은 값의 합