이번에 리뷰할 논문은 2018 ACCV에 "Learning for Video Super-Resolution through HR Optical Flow Estimation" 이란 제목으로 처음 공개된 후 2년 뒤 2020 IEEE에 "Deep Video Super-Resolution using HR Optical Flow Estimation" 으로 보완되어 공개된 논문입니다. Video Super Resolution과 Optical Flow에 대한 개념이 모두 들어가있는 논문으로 원본 논문들과 공식 Github 링크는 아래에 첨부해두겠습니다.
✅ ACCV 2018
✅ IEEE 2020
✅ Github
Fig 1. Abstract
본 초록에서는 기존 Video SR의 난관과 SOF-VSR에 대한 간략한 설명이 요약되어 있습니다.
"The key challenge for video SR lies in the effective exploitation of temporal dependency between consecutive frames"
Video-SR에서는 연속적인 프레임 사이에서 일시적인 연관성을 효과적으로 추출하는 것이 가장 key challenge입니다. 기존의 연구들의 경우 저해상도(LR) 프레임 간의 optical flow를 추론해서 이를 일시적인 연관성으로 사용했습니다. 하지만 이 방법은 고해상도(HR) 출력과 해상도 차이가 있었고, fine detail을 복원하는것을 방해(hinder)하였습니다. 따라서 본 연구에서는
Specifically, we first propose an optical flow reconstruction network (OFRnet) to infer HR optical flows in a coarse-to-fine manner. Then, motion compensation is performed using HR optical flows to encode temporal dependency. Finally, compensated LR inputs are fed to a super-resolution network(SRnet) to generate SR results.
의 방법을 소개하고 있습니다. 자세한 구조적인 측면은 추후 Network Architecture와 함께 살펴보도록 하겠습니다.
Introduction에서는 Abstract에 서술된 부분을 보다 자세하게 정리해두었습니다. 원문은 첨부된 Fig.2~3을 참고해주세요. 자세한 내용은 아래 서술하였습니다.
Fig 2. Introduction 1
Fig 3. Introduction 2
따라서 이 논문에서는 Super-resolve Optical Flow for Video SR(SOF-VSR)을 제시함
본 구조는 temporal detail을 optical flow SR을 통해서 복원함
우선 optical flow reconstruction net(OFRnet)을 통해 HR optical flow를 재구성함
이 optical flow눈 LR frame에서 motion compensation을 수행하기 위해 사용됨
a space to-depth transformation is used to bridge the resolution gap between HR optical flows and LR frames
결론적으로 compensated LR frame들이 SRnet(Super-Resolution Net)에 입력됨
본 논문의 기여(contribution)는 다음과 같이 주장하고 있습니다.
앞서 서두에서 말했듯, 본 논문은 2018년에 ACCV에 올라오고, 2020년에 IEEE에 다시 보완하여 제출되었는데, 2년간의 보완에 대한 설명도 첨부되어 있습니다.(Fig.4)
Fig 4. Introduction 3
Fig 5. Single Image SR 1
Fig 6. Single Image SR 2
Fig 7. Traditional Video SR
Fig 8. Deep Video SR with Separated Motion Compensation
Fig 9. Deep Video SR with Integrated Motion Compensation 1
Fig 10. Deep Video SR with Integrated Motion Compensation 2
Methodology부터 본격적인 논문의 시작일 듯 하네요. 그건 Part 2에 상세히 기술하도록 하겠습니다. 이걸 보고 있으니 Optical Flow에 대한 개념 성립도 필요할 것 같아서 Flownet에 대한 Paper Review도 빨리 해야겠네요. 2번째 포스트로 바로 Methodology부터 업로드 하겠습니다. Intro 자세히 읽어주셔서 감사합니다!