신경망이 깊어질수록 학습하기 힘들다.지속적으로 깊어지는 신경망을 쉽게 학습하기 위해 residual learning을 제시한다.layer에 input을 더해주는 residual function으로 재구성했다.VGG보다 계층이 깊지만 모델 구조는 덜 복잡하다.ILSVRC
이미지 분류 모델을 측정하기 위한 데이터로 가장 많이 사용하는 데이터셋2만 개 이상의 클래스와 약 1400만장의 이미지로 구성ILSVRC(ImageNet Large Scale Visual Recognition Challenge) 대회에서 사용Yann LeCun 교수가
합성곱 신경망(CNN; Convolutional Neural Network) 이미지 인식, 음성 인식에서 자주 사용 합성곱 계층(Convolution Layer), 풀링 계층(Pooling Layer) 존재 풀링 계층은 생략 가능 완전 연결 계층(Fully-