


ResNet은 Microsoft 연구진이 개발한 모델로, gradient vanishing 문제를 해결하고 매우 깊은 신경망 구조(예: 152층)를 가능하게 했다.
핵심은 Skip Connection(잔차 연결) 구조
Residual Block이 중첩된 ResNet은 딥러닝 기본 골격으로 자리잡으며 높은 활용도를 보이고 있다.
일반적인 신경망 흐름: 보통은 입력 x가 네트워크를 거치면서 변환된 출력 만 다음 층으로 전달된다.
Skip Connection이 들어가면: ResNet에서는 에 입력 x를 그대로 더해준다.

DenseNet은 ResNet의 구조를 확장해, 각 층의 출력을 덧셈(sum) 방식이 아닌 연결(concatenation) 방식으로 통합한다.
이 방식의 장점
각 층은 이전 모든 층의 출력을 이어받아, Dense Connection 구조를 이루게 된다.
ResNet (덧셈)이라면
DenseNet (Concatenation)이라면