# Distillation

4개의 포스트

Model Compression Survey

Methods 모델 압축을 위한 기본적인 접근 방법 가지치기(Pruning) 1) 학습 후 불필요한 부분 제거하는 방식 가중치의 크기에 기반한 제거, attention head 제거, layer 제거 2) 학습 중 prunability를 제거하기 위

2022년 7월 18일
·
0개의 댓글
·
post-thumbnail

[ML] Model Agnostic

출처(https://elapser.github.io/machine-learning/2019/03/08/Model-Agnostic-Interpretation.html한국어 자료가 있음에 지식 공유자님께 감사합니다. (\_ \_ )모델 경량화 논문에는 model

2021년 9월 24일
·
0개의 댓글
·

[Paper Review] TinyBert

TinyBERT : Distilling BERT for Natural Language Understanding [TinyBERT Paper] TinyBERT: Distilling BERT for Natural Language Understanding 참고한 논문

2021년 9월 7일
·
0개의 댓글
·
post-thumbnail

Lecture 22 - BERT and Other Pre-trained Language Models

작성자 : 서울시립대학교 경제학부 박준영

2021년 6월 23일
·
8개의 댓글
·