# Distillation

3개의 포스트
post-thumbnail

[ML] Model Agnostic

출처(https://elapser.github.io/machine-learning/2019/03/08/Model-Agnostic-Interpretation.html한국어 자료가 있음에 지식 공유자님께 감사합니다. (\_ \_ )모델 경량화 논문에는 model

2021년 9월 24일
·
0개의 댓글

[Paper Review] TinyBert

TinyBERT : Distilling BERT for Natural Language Understanding [TinyBERT Paper] TinyBERT: Distilling BERT for Natural Language Understanding 참고한 논문

2021년 9월 7일
·
0개의 댓글
post-thumbnail

Lecture 22 - BERT and Other Pre-trained Language Models

작성자 : 서울시립대학교 경제학부 박준영

2021년 6월 23일
·
8개의 댓글