# quantization

4개의 포스트

MNIST Quantization Aware Training example

딥러닝 모델에서의 Quantization이란 부동소수점 형식으로 연산되는 모델의 학습과 추론을 정수형으로 변환하는 것과 같은 방법을 통하여 학습과 추론의 시간을 단축하고 모델의 크기를 줄이는 것이다. 이때, Quantization을 하는 과정에서 정확도가 Quantiz

2021년 9월 30일
·
0개의 댓글

딥러닝 Quantization(양자화) 정리

모델의 파라미터를 lower bit로 표현함으로서 계산과 메모리 access 속도를 높이는 경량화 기법보통 32비트 부동소수점 연산을 8비트 정수로 변환하는 방식 사용 \- pytorch, tensorflow의 default data type = fp32Quant

2021년 5월 30일
·
0개의 댓글
post-thumbnail

[Paper-Review] Training with Quantization noise for Extreme Model Compression

Model Compression 관련 논문 중 첫 번째로 리뷰할 논문은 Training with Quantization noise for Extreme Model Compression이라는 논문이다.이 논문은 Facebook AI에서 Arxiv에 2020.04.17일에

2021년 4월 27일
·
0개의 댓글
post-thumbnail

Pytorch Quantization

부동소수점 모델의 가중치를 특정 비트(float16 or int8) 수로 줄여 모델의 저장 크기를 줄이는 것. 주로 연산 또는 저장 크기가 무거운 모델을 Edge 또는 모바일 디바이스에 올리고 싶을 때 사용한다.

2021년 4월 23일
·
0개의 댓글