깊은 신경망
![](https://velog.velcdn.com/images%2Fpeterpictor%2Fpost%2F2401a8e3-d4e9-4d2c-b856-adc5df78b3e6%2F%E1%84%89%E1%85%B3%E1%84%8F%E1%85%B3%E1%84%85%E1%85%B5%E1%86%AB%E1%84%89%E1%85%A3%E1%86%BA%202021-07-06%20%E1%84%8B%E1%85%A9%E1%84%92%E1%85%AE%205.19.36.png)
장점
단점
- 하지만 신경망이 깊어지면 연산량이 대폭 증가해 성능 저하 발생
- 과잉적합문제 발생
- 경사소멸 문제 발생
잔류학습
residual block
![](https://velog.velcdn.com/images%2Fpeterpictor%2Fpost%2Fe5519549-30cd-40ac-838a-f6310dccda06%2F%E1%84%89%E1%85%B3%E1%84%8F%E1%85%B3%E1%84%85%E1%85%B5%E1%86%AB%E1%84%89%E1%85%A3%E1%86%BA%202021-07-06%20%E1%84%8B%E1%85%A9%E1%84%92%E1%85%AE%205.21.28.png)
- 컨볼루션과 활성함수를 거친 값과 처음 인풋값을 합쳐줌
- 역전파 과정에서 발생하는 깊은 신경망 경사소멸문제를 해결
- 덧셈 연산만 증가해 매개변수 개수에 영향주지 않고 연산량 증가도 거의 없음
- 따라서 깊은 신경망을 사용할 수 있고 전체적인 훈련 정확성이 올라가게 됨
ResNet 구조
![](https://velog.velcdn.com/images%2Fpeterpictor%2Fpost%2F9f7be187-1e64-4653-8b7d-fb1914c740a3%2F%E1%84%89%E1%85%B3%E1%84%8F%E1%85%B3%E1%84%85%E1%85%B5%E1%86%AB%E1%84%89%E1%85%A3%E1%86%BA%202021-07-06%20%E1%84%8B%E1%85%A9%E1%84%92%E1%85%AE%205.31.24.png)
- 34층의 깊은 신경망을 가짐
- VGGNet과 다르게 3 * 3 커널 사용
- 전역 평균 풀링층 사용해 FC 층이 없음(매개변수 적음)
- 배치 정규화 사용