# quantization

2개의 포스트

딥러닝 Quantization(양자화) 정리

모델의 파라미터를 lower bit로 표현함으로서 계산과 메모리 access 속도를 높이는 경량화 기법보통 32비트 부동소수점 연산을 8비트 정수로 변환하는 방식 사용 \- pytorch, tensorflow의 default data type = fp32Quant

2021년 5월 30일
·
0개의 댓글
post-thumbnail

[Paper-Review] Training with Quantization noise for Extreme Model Compression

Model Compression 관련 논문 중 첫 번째로 리뷰할 논문은 Training with Quantization noise for Extreme Model Compression이라는 논문이다.이 논문은 Facebook AI에서 Arxiv에 2020.04.17일에

2021년 4월 27일
·
0개의 댓글