본 포스팅은 글쓴이의 뇌피셜이 10%정도 들어가 있습니다. 쓴 내용이 대부분 논문에서 참고하였으나, 이해하기 어려운 부분은 뇌피셜로 이해하려고 노력했기 때문에 틀린 정보가 있을 수 있습니다. 피드백은 언제나 환영입니다.
그동안 다양한 Deep Convolution 신경망이 Super-resolution 분야에서 제시되었다. EDSR은 논문 발표 당시 SOTA(State of the art) 방법론이었다고 한다. 불필요한 모듈을 제거하고, 최적화 하여 모델의 성능을 향상시켰다.
또한 다양한 scale에서 사용할 수 있는 시스템인 MDSR 역시 내세웠다. 이 방법론을 적용해서 NTIRE2017 SISR Challenge에서 가장 좋은 성능을 냈다.
EDSR은 서울대학교 Computer vision lab에서 발표한 논문입니다. (국뽕)
논문에서는 MDSR도 소개하고 있지만 이 포스팅에서는 EDSR만 살펴보도록 하겠습니다.
제가 본 EDSR의 핵심 파트는 3가지입니다.
1. GPU 메모리 사용량을 획기적으로 줄일 수 있다.
2. 유연성이 증가한다.
논문에서는 네트워크의 층 깊이와 Feature의 개수 중에 어떤 부분이 더 중요한 부분인지에 대한 분석을 했습니다.
계산 리소스가 제한되어있다고 가정했을땐, 네트워크 층의 깊이 보다는 Feature 수를 늘리는 것이 더 긍정적이라는 결론입니다.
하지만 특정 수치 이상으로 높일 경우에는 학습이 불안정해질 수 있다고 합니다.
그래서 논문에서는 Residual Scaling Factor 0.1 을 Convolution layer 마지막에 추가했습니다.