| 기법 | 설명 | 참고문헌 |
|---|---|---|
| Pruning | 불필요한 파라미터 제거 | [15] |
| Distillation | 큰 모델 → 작은 모델로 지식 전달 | [16, 17] |
| Quantization | 파라미터 precision 낮춤 (FP32 → INT8) | [18, 19, 20] |
Progressive Distillation[23, 24, 25]Consistency Distillation[26, 27, 28]
attention, normalization 레이어는 제거하고 residual block, upsample만 남김
8배 다운샘플링한 이미지를 recon하는 것을 학습하도록함
teacher 모델의 output과 student 모델 output의 L2 loss
teacher, student 의 각 layer 별 Feature map의 L2 loss
다중 샘플링 문제를 해결하기 위해, one-step만으로 고품질 이미지를 생성하는 train 방법론 제안.
[0, αT]: 고주파(high-frequency) 정보를 담는 초기 구간
→ Score Distillation 사용 (teacher가 예측한 noise를 맞추기)
(αT, T]: 저주파(low-frequency) 구간
→ **Feature Matching Loss (LFM)** 사용
→ α는 1에 가깝게 시작하고 점차 줄임.