투빅스 14기 김민경
Skip connection이 있는 블록을 Residual block이라고 함.
그리고 이 Residual block들을 여러층 쌓아 깊은 신경망 ResNet을 만듦.
원래 의 정보가 로 흐르기 위해서는 main path 과정들을 다 거쳐야 함.
ResNet에서는 을 복제해서 신경망의 더 먼 곳까지 단번에 가게 만든 뒤, ReLU 비선형성을 적용해주기 전에 을 더해줌.
이것을 short cut(=skip connection)이라고 함.
그러면 main path를 따르는 대신, short cut(=skip connection)을 따라서 신경망의 더 깊은 곳으로 갈 수 있다.
가 더해져서 마지막 식이 변경됨.
그리고 은 선형연산 뒤, ReLU 연산 전(비선형 적용해주기 전)에 들어감.
정리하자면 short cut(=skip connection)은 이 (더 깊은 곳으로) 정보를 전달하기 위해 층을 뛰어넘는 걸 의미함.
(1) 채널의 수 조정
(2) 비선형성 추가
(1) 수직 축 대칭 (Mirroring)
(2) Random Cropping
완벽한 방법은 아니지만 실제로는 잘 작동함.
(1), (2) 이외에 Rotation, Shearing, Local warping 등이 있지만 복잡해서 실제로 많이 사용되지 않음.
투빅스 14기 장혜림
Coursera Convolutional Neural Networks 14~22강 리뷰로 ResNet, Inception, Data Augmentation에 관하여 김민경님께서 강의를 진행해주셨습니다.
주요 모델의 구조에 대해서 다시 한번 공부할 수 있는 시간이었습니다! 유익한 강의 감사합니다!
투빅스 14기 김상현
이번 강의는 coursera convolutional neural networks 14~22강 review로 김민경님께서 진행해주셨습니다.
ResNet
NIN & Inception Network
Data Augmentation
Coursera 강의에 나오는 부분들을 자세히 설명해주셔서 다시 공부할 수 있어 유익했습니다.
좋은 강의 감사합니다!