# Distillation
총 4개의 포스트
Model Compression Survey
Methods 모델 압축을 위한 기본적인 접근 방법 가지치기(Pruning) 1) 학습 후 불필요한 부분 제거하는 방식 가중치의 크기에 기반한 제거, attention head 제거, layer 제거 2) 학습 중 prunability를 제거하기 위
2022년 7월 18일
·
0개의 댓글·
0
[ML] Model Agnostic
출처(https://elapser.github.io/machine-learning/2019/03/08/Model-Agnostic-Interpretation.html한국어 자료가 있음에 지식 공유자님께 감사합니다. (\_ \_ )모델 경량화 논문에는 model
2021년 9월 24일
·
0개의 댓글·
0[Paper Review] TinyBert
TinyBERT : Distilling BERT for Natural Language Understanding [TinyBERT Paper] TinyBERT: Distilling BERT for Natural Language Understanding 참고한 논문
2021년 9월 7일
·
0개의 댓글·
2