[210215 TIL] CS231n Lecture 9 - CNN Architectures

602go·2021년 2월 15일
0

Deep Learning

목록 보기
16/17
post-thumbnail

Today I Learned

written by 602



📕기초과목 제대로 다지기📕

: cs231n 복습

지난 학기, 투빅스 이미지 세미나를 진행하면서 cs231n을 한번 쭉 수강하며 학회원들과 gitbook에 자료정리를 했기 때문에, 새로 합류한 딥러닝 스터디에서는 기억해야할 내용 위주로 간략하게 정리하였다.




👀CS231n. Lecture 9) CNN Architectures



1. AlexNet

  • CNN을 이용하여 ImageNET에서 우승한 최초의 모델
  • 모델 구조 설계하려면 파라미터 개수도 계산할 줄 알아야함

2. VGG

  • 모델이 훨씬 깊어짐(Deeper Network)
  • 3x3 Conv filter로 고정 -> why?
    • effective receptive field
      • 3x3을 3층 쌓은 것이 7x7 한 층과 같은 범위의 영역을 보면서 필요한 파라미터가 더 적음
  • FC& (4096)이 이미지의 특성을 잘 반영하고 있어서 generalization에 유리했음

3. GoogLeNet

Deeper Networks, with Computational Efficiency

  • AlexNet에 비해 12배 적은 파라미터
  • FC Layers 없음
  • 특이한 구조 - Inception Module
    • 1x1 conv, 3x3 conv, 5x5 conv, 3x3 pool -> concat
      • 더 다양한 receptive field를 볼 수 있도록
    • prob: 너무 많은 연산량 (computational complexity) b/c concat
    • sol: Bottleneck 구조 -> 파라미터 수를 줄이고 더 중요한 feature들 뽑아내서 흘려보내주기
      • 1x1 conv bottleneck layers 추가
  • 기울기 소실 방지를 위해 추가한 Auxiliary Classification
  • 22층

4. ResNet

  • 엄청나게 깊어진 모델(152층)

  • prob: 모델이 깊어질수록 overfitting 뿐만 아니라 optimization prob. 존재

  • sol: identity mapping

    • gradient를 그대로 흘려주기 때문에 기울기 소실 방지
  • 전부 3x3 conv layer로 구성(depth는 점점 늘어남)

  • bottleneck(1x1) layer 포함(GoogLeNet과 동일)

  • 사람도 이겨버린 놀라운 성능


Other Networks

NiN(Network in Network)

  • MLP로 채움
  • 구글넷의 시초(Bottleneck 개념 정립)

Wide Residual Networks

  • depth보다 residual이 중요하다
  • filter 개수를 늘렸더니 50층만으로도 충분한 성능 기록(파라미터 수는 동일)

ResNeXt

  • parallel한 구조
  • inception module과 유사

Squeeze Net

  • Squeeze layer + Expand Layer
  • AlexNet만큼의 Accuracy, 파라미터는 1/50

cf) 1x1 conv를 활용하는 다양한 방식 - for Efficient DL

  • Depthwise Seperable Convolution (최신의 효율적 방법 -> 필수)
  • Inverted Residual Block (MobileNet V2)
  • 경량화 공부할 때 CV 분야에서는 1x1 conv를 눈여겨볼 필요성


0개의 댓글