코드 구현 : 링크텍스트
ResNet는 shortcut connection을 가진 ResNet의 기본 블럭을 Residual Block라고 부르고 이게 여러 개 있는 구조입니다. 자세한 것은 뒤에 가서 더 이야기를 해볼겁니다.
https://arxiv.org/pdf/1512.03385.pdf
Residual Learning Framework를 통해서 레이어가 깊어져도 학습이 잘되게 하고, residual function은 레이어 입력값을 참조하도록 구성됩니다. 이렇게 하면 residual network가 최적화하기도 쉽고 꽤 깊은 네트워크에서도 높은 정확도를 보유할 수 있습니다.
Representation은 네트워크의 layer들이 거친 결과로, 많은 layer부터 추출된 고차원은 특징일수록 양질의 정보를 가집니다
서론에서 논문은 어떠한 문제를 제기하고 있는데 그것은 바로 딥러닝 모델 레이어를 깊게 쌓을 시 항상 성능이 좋아지냐입니다. 허나, 이 문제 발생 원인(Vanishing/Exploding Gradient로 인해 모델 수렴 방해)과 해결(Normalized initialization[weight initialization], Ingtermediate normalization layers[batch normalization])은 이미 전반적으로 나온 상태이기에 논문에서 주장하는 핵심 문제는 아닙니다.
여기서 주장하는 것은 레이어가 깊게 쌓인 상태에서 모델이 어느 특정 값에 수렴을 했음에도 불구하고 레이어 개수가 적은 모델의 train/tes error보다 커지는 현상으로 최적화가 잘 되지 않아 발생하는 문제인 Degradation problem에 대한 제기입니다.
이 Framework를 이용하여 성능 저하 문제를 해결할 것이라는 겁니다. 이 방법은 쌓여진 레이어들을 underlying mapping에 직접 학습하는 것이 아니라 residual mapping맞춰 학습하는 것입니다. 이렇게 하면, original mapping(H(x)) = F(x) + x
*F(x) = 쌓여진 비선형 레이어의 mapping
저자들은 레이어를 많이 쌓아서 모델 성능이 떨어지는 문제에 대해서 이상한 점을 느꼈습니다. 왜냐하면, 기존 모델에 identity mapping레이어를 여러 개 붙였다고 해서 모델의 성능이 떨어져서 학습이 잘 이루어지지 않는 것이기 때문입니다. 그래서 저자들은 한 가지 기발한 생각을 해서 이 상황을 해결하려고 했습니다.
*H(x)는 학습레이어, F(x)는 학습해야 할 x는 입력값
그것은, H(x) = F(x) + x로 표현하는 것입니다. 이렇게 되면, F(x)가 Vanishing Gradient현상으로 학습이 되지 않아 zero mapping가 되더라도 최종 H(x)는 x라도 남겨 되어 identity mapping가 가능해지기 되어 학습이 가능하니 성능 저하가 일어나지 않습니다. 실제로 실험을 해보니 구조적으로 안정하게 학습이 진행이되고 레이어를 깊게 쌓을 수록 성능이 향상되었습니다
*레이어 입력값:x , residual layer의 결과 F(x), 최종 출력값 :F(x)+x
논문에서 위의 문제는 네트워크 학습이 잘 되지 않는 것으로 이것을 해결하기 위한 솔루션으로 래이어의 입력값을 활용하여 레이어가 residual function을 학습하게 만들기입니다.
자세히 말씀을 해드리면, 지름길(shortcut connection)을 이용해서 레이어가 입력값에 직접 참조하도록 레이어를 변경했다고 생각하면됩니다(아래 그림을 첨부하니 그림을 보시면 이해가 될 것입니다.) shortcut connetction을 이용하면 입력값에서 바로 출력층으로 더합니다.
이러한 구조 덕분에 별도의 파라미터나 computational complexity가 추가되지 않아도 되어 plain 과 residual간의 비교가 공정하게 됩니다.
또한, SGD에 따른 역전파 end-to-end학습이 가능하고, solver 수정없이도 common library사용하여 구현 가능(이런 게 가능하구나 정도의 감만 익히세요)
1-1. ImageNet
1-2. CIFAR-10 dataset
이제 워밍업을 했으니 논문 속으로 들어가봅시다.
성능 저하 문제 해결을 위해서, 쌓인 레이어가 H(x)-x로 mapping되어 original mapping을 F(x)+x로 변형했다. 물론 H(x)의 최적화가 identity mapping가 아닐지라도, 이 변형식은 문제에 전제조건을 제공해주는 효과가 있다. 왜냐하면, solver은 새로운 function으로 학습하는 것보다 기존에서 변형된 function으로 학습하는 것이 더 쉽기 때문이고 이는 논문의 실험결과에도 나온다.(Fig7)
이 논문은 쌓여진 레이어당 residual learning을 사용한다.
Building block는 y = F(x,{Wi}) + x로 정의된다
x:input, y:output , F(x,{Wi}):학습될 residual mapping
F +x의 연산이 가능하려면 둘의 차수가 같아야하고, linear projection Ws(square matrix)를 수행해야함.
Building block는 y = F(x, {Wi}) + Wsx로도 정의가 가능은 하지만 성능 저하 문제를 해결하기엔 indetity mapping만으로도 충분해서 Ws는 그저 dimension matching용도로만 사용이된다.
Projection은 현재 데이터를 다른 차원에서 보도록하는 것이다. FC layer상을 기준으로 예를 들겠습니다.
위의 그림은 shortcut응 이용해 출력과 2-layer전의 입력의 dimension이 달라서 더하기가 불가능합니다.
허나 projection을 통해서 해결이 가능합니다.
이 논문은 다양한 plain/residual network를 테스트 하고 현상을 관찰했습니다.
VGG net영감을 받았고, conv layer은 3X3 filter을 갖는다
동일한 output feature map size, layer는 동일 수의 filter 갖음
feature map size 절반, layer당 time complexity보전 위해 filter의 수 2배
Downsampling, stride =2인 conv layer사용
네트워크 마지막은 GAP , Softmax with 1000way FC layer
VGG보다 한참 적은 수의 filter와 낮은 complexity
Residual network는 plain network + shortcut connection
identity shortcut는 input과 output가 동일한 dimension
만약 동일하지 않고 dimension차원이 증가한다면,
zero entry추가로 padding하여 dimension matching 후 identity mapping수행(파라미터 추가X)
y = F(x, {Wi}) + Wsx의 projection shortcut이용하여 dimension matching하기
shortcut connectino은 다른 크기의 feature map끼리 mapping되면, stride=2로 수행한다.
*점선은 dimension이 증가한 결과와 mapping하는 경우
ImageNet Dataset실험은 AlexNet과 VGG방식 따른다
[256,480] 무작위하게 샘플링된 shorter side를 통해 rescaling로 이미지 scale augmentation한다
224X224 crop는 horizontal flip with per-pixel mean subtracted 이미지 중에서 무작위로 샘플링하여 standard color augmentation사용한다.
conv layer과 activation사이에 batch normalization사용하고 He initialization기법으로 가중치 초기화를 통해 plain과 residual networks학습
dropout사용하지 않음
learing rate = 0.1에서 시작하여 error plateau 상태마다 나누기 10을 하여, decay = 0.0001 & momentum=0.9인 SGD사용한다.
mini-batch size = 256, iteration = 600K
Class: 1K
training/validation/test = 1.28M/50K/100K
Test result = Top-1 error & Top-5 error
18-layer가 34-layer보다 학습과정 속에서 error가 더 낮게 나오는 성능 저하 문제를 관찰함. 이때, 저자들은 과적합을 원인으로 생각하지 않았습니다. 왜냐하면, 이 네트워크는 batch normalization으로 학습을 했기에 분산이 0이 될 수 없었고 healty norm도 보여서 vanishing gradients하지 않았다고 볼 수 있었기 때문이다.
Baseline 아키텍처는 plain networks와 3X3 fiter pair + shortcut connection추가
모든 shortcut connection은 identity mapping사용
Dimension matching위해 zero padding사용
추가 파라미터 없음
34-layer가 18-layer보다 우수한 성능을 보이고 training error가 상당히 낮으므로 성능 저하 문제 해결과 깊이가 깊어져도 좋은 accuracy얻고 수렴 속도 또한 빠르다.
zero-padding shortcut는 dimension matching에 사용되고, 모든 shorcut는 파라미터에 자유롭다
projection shortcut는 dimension늘릴 때만 사용되고, 다른 shortcut는 모두 identity
모든 shortcut는 projection
ImageNet dataset위한 deeper Network를 설명해보겠습니다.
3개의 layer 순서대로 1X1, 3X3, 1X1 conv layer이고. 1X1은 dimension줄이거나 늘리는 용도이고 3X3 layer의 I/O의dimension줄인 bottleneck로 둔다. 이렇게 하면 차원이 크더라도 유사한 time complexity를 갖게 된다.
이 부분에서 identity shorcut가 중요한 부분이다. 왜냐하면, identity shortcut가 projection으로 대체 되면, 두 개의 high-dimensional로 출력이 연결되어 time complexity와 model size가 두 배로 늘어나기 때문이다. 고로, identity shortcut가 효율적인 모델을 만들어준다는 방증 또한 할 수 있다.
34-layer ResNet은 previous best에 준하는 정학도 달성
152-layer Reset의 single model top 5 error:4.49%
서로 다른 깊이의 ResNet 6개 앙상블한 top 5 error:3.57%
논문에서 CIFAR 10 dataset을 가지고 연구 수행을 많이 했는데 training set학습과 test set에 대한 평가를 기준으로 하였고, extremely deep network초점으로 하였기에 여러 가중치 레이어로 구성된 아키텍처를 사용했다
input: per pixel mean subtracted 32X32 이미지
1layer : 3X3 conv layer
크기가 각각 {32,16,8}인 특성 맵에 3X3 conv적용된 6n개의 layer stack 사용하였고 각 size마다 2n개의 layer구성
filter의 수는 {16,32,64}
sumsampling는 strides =2인 conv layer
FC layer = global average pooling & softmax
shortcut connection은 identity shortcut로, 구조상 차이 빼고는 모든 조건이 plain network와 동일
학습 진행 방법
4개의 pixel의 각 측면에 padding, padded image와 horizontal flip중에서 무작위로 32x32 crop샘플링
He initialization으로 weight 초기화
decay = 0.0001, momentum = 0.9
learning rate =0.1, 32000/480000번 째 iteration에서 rate를 10으로 나누어 적용
2개의 GPU에서 mini_batch_size = 128, 64000번 학습
성능 테스트 시 32 X 32의 원본 이미지에 대한 single view만 평가
실제 실험에서는 n = {3, 5, 7, 9}에 대한 20/32/44/56-layer network를 비교한다
layer response의 std를 나타낸 것으로 reponse는 batch normalization과 nonlinearity(ReLU/addition)사이에서의 3x3 conv layer의 결과값이다
ResNet에서는 residual fucntion의 response강도가 드러남으로, 대응하는 plain network보다 작은 reponse보여주고 깊이가 깊을 수록 더 작아지는 것을 알 수 있다.
이렇게 하나의 논문을 깊이 파본 적이 없지만 그래도 너무나 좋은 경험이었습니다. 항상 따라만 쳤던 모델의 코드를 보면서 왜 이렇게 쓰여졌고 이 부분에 이 기능이 들어간 이유를 알게된 값진 경험이었습니다.