모델의 일부 파라미터를 제거하거나 무시하여 모델의 크기를 줄이는 기법
모델을 학습시킨 후, 고정된 규칙에 따라 불필요한 뉴런이나 weight를 제거하는 방법
모델의 학습 과정 중 또는 실시간으로 필요에 따라 weight나 뉴런을 제거하는 방법
과정
장점
단점
관련 연구
Dynamic Channel Pruning: Feature Boosting and Suppression (ICLR 2019)
위 내용은 CNN에서 dynamic pruning을 제안한 논문이지만, 아래는 ViT에서 적용한 논문임
DynamicViT: Efficient Vision Transformers with Dynamic Token Sparsification (NeurIPS 2021)
또 다른 논문으로는 Evo-ViT: Slow-Fast Token Evolution for Dynamic Vision Transformer이 있음
Evo-ViT는 Dynamic token selection과 업데이트를 통해 Vision Transformer의 효율성을 높이는 전략을 제안 (아래 그림 참고)
입력 데이터 복잡성에 따라 token을 동적으로 관리하고 최적화하여 정보 손실을 최소화