es_seong.log
로그인
es_seong.log
로그인
시리즈
Model Compression
오름차순
1.
[KD] Distilling the Knowledge in a Neural Network 리뷰
Distilling the Knowledge in a Neural Network 리뷰
2025년 2월 12일
2.
[KD] Knowledge Distillation: A Survey 정리 & 번역
Knowledge Distillation: A Survey 정리 & 번역
2025년 2월 3일