# Model Compression

7개의 포스트

Model Compression Survey

Methods 모델 압축을 위한 기본적인 접근 방법 가지치기(Pruning) 1) 학습 후 불필요한 부분 제거하는 방식 가중치의 크기에 기반한 제거, attention head 제거, layer 제거 2) 학습 중 prunability를 제거하기 위

2022년 7월 18일
·
0개의 댓글
·

Quantization 101

edgde device에는 gpu가 없는 경우가 많다. cpu는 int8을 활용하는데 cpu에 모델을 실으려면 모델이 가진 자료형을 조작해야 한다. 이 과정을 quantization이라고 한다. 세상에 없던 기술은 아니고 이미지를 압축하는 원리를 활용했다.

2022년 5월 4일
·
0개의 댓글
·

Knowledge Distillation

모델이 발전할수록 모델이 요구하는 메모리와 용량이 커진다. 실시간으로 응답해야 하거나 개인정보처럼 민감한 정보를 처리하는 경우라면 반드시 온디바이스에서 처리해야 한다. 문제는 온디바이스의 메모리와 용량은 서버만큼 넉넉하지 않다.

2022년 4월 18일
·
0개의 댓글
·
post-thumbnail

[CNN Networks] 9. Deep Compression 리뷰

Pruning과 Quantization을 활용해 모델 압축을 하는 Deep compression에 대해 정리한 내용입니다.

2021년 12월 11일
·
0개의 댓글
·
post-thumbnail

[CNN Networks] 8. Quantization 소개

양자화에 대한 개념과 양자화 기법들에 대해 간략히 소개하는 내용입니다.

2021년 12월 5일
·
0개의 댓글
·
post-thumbnail

[CNN Networks] 7. Pruning 소개

Pruning 기법에 대하여 정리한 내용입니다.

2021년 12월 4일
·
0개의 댓글
·
post-thumbnail

[CNN Networks] 6. 딥러닝 모델 경량화

딥러닝의 경량화 기법들에 대한 소개입니다.

2021년 12월 4일
·
0개의 댓글
·