CNN은 Convolution과 Pooling을 거치면서 초기의 구체적이고 자잘한 데이터들이 점점 추상적이고 순수한 데이터로 변하게 된다. 그리고 마지막에 다시 큰 이미지로 upsampling을 하게 되는데 이때 coarse한 정보들이 거의 제거된다. 이때 이 coarse한 정보들도 넘겨주기 위해 Skip Connection을 사용하게 된다.
즉, Skip Connection은 Low Level Feature와 High Level Feature를 조합해서 학습하는 방법이다. 실제로 network를 거치지 않은 input 데이터를 output 데이터에 그대로 더해서 다음 레이어에 전달하는 방식으로 사용한다. 매우 단순하지만 실제로 gradient descent 문제를 해결하는데 큰 도움이 되었다고 한다.
short skip connection: deep neural network를 학습할 때, vanishing gradient problem을 해결하기 위해 사용할 수 있다. ResNet에서 활용됨
long skip connection: downsampling 중 손실되는 spatial 정보를 복구하는데 도움이 된다. DenseNet에서 활용됨
convergence time을 줄일 수 있다.
Referenced: https://at0z.tistory.com/164, https://lswook.tistory.com/105