Residual block으로 가 아니라 만 학습하게 해서 부담을 줄임
Backpropagation에서도 gradient가 2가지 방향으로 flow할 수 있기 때문에 gradient vanishing 문제도 해결
Dense block에서는 channel 축으로 concat(resnet은 add), 정보가 그대로 남아있어서 나중에 참조가 가능
바로 직전뿐만 아니라 훨씬 이전의 입력도 넘겨줘서 훨씬 dense하고 상위 layer에서도 하위 layer의 특징을 잘 참조할 수 있게 함
Depth, width, resolution을 키워서 성능을 높임
그런데 너무 높이면 saturation이 오기 때문에 적절한 비율로 동시에 scaling해서 성능을 높임
자동차 같이 고정된 물체가 아니라 사람, 동물은 움직임에 따라 구조가 변하기 때문에 receptive field도 그에 맞춰 바꿔줌
Offset field에 따라 weight를 옆으로 벌려줌
GoogLeNet이 성능이 좋긴 한데 auxiliary classifier 등으로 사용하기엔 복잡함
따라서 Backbone으로는 VGGNet, ResNet을 사용하는 편