# quantization
[PaperReview] A Survey of Quantization Methods for Efficient Neural Network Inference
폭 넓은 문제의 분야에서 Neural Network 의 정확도는 필요 이상의 수 많은 파라미터들로 크게 개선되었다. 문제를 해결하는데 중점을 두어 모델의 복잡도와 계산 복잡도까지 고려를 해서 발달되지는 않은 것으로 해석 할 수 있을 것 같다.NN이 개선되며 발달한
[PaperReview] Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference
모바일 장치의 인기가 많아지고 있지만, 딥 러닝 기반 모델은 압도적인 계산 비용이 요구되므로 장치 내에서 효율적이고 정확한 추론 방식이 요구된다.AlexNet의 등장으로 classification, detection task에서 CNN의 성능이 향상 되었지만, 모델 복
[PaperReview] Training with Quantization Noise for Extreme Model Compression
매 iteration forward 때 마다 서로 다른 가중치의 일부분에 양자화 하는 방법이다. 이렇게 할 경우 편향성 없는 gradient를 다른 가중치에 흐르게 할 수 있다.실 생활에서 쓰이는 성능 좋은 대부분의 NN architecture는 수 많은 파라미터를 가

Color quantization with Self-organizing Map
This article is for personal use to review self-organizing map, which is an unsupervised learning technique.
[ML] Quantization (양자화)
Quantization (양자화)와 Quantization Aware Training, 동적 양자화, 정적 양자화

5. 변환 및 양자화 (Transform & Quantization)
https://blog.kakaocdn.net/dn/cjNAPe/btqWXaYZ6d0/0xGYhrQ6VhN3SYVKnWKplK/img.png좌측 그림은 Encoder에서, 우측 그림은 Decoder에서의 변환과 양자화에 대한 순서도입니다.먼저, Encoder에
Quantization 101
edgde device에는 gpu가 없는 경우가 많다. cpu는 int8을 활용하는데 cpu에 모델을 실으려면 모델이 가진 자료형을 조작해야 한다. 이 과정을 quantization이라고 한다. 세상에 없던 기술은 아니고 이미지를 압축하는 원리를 활용했다.

Model Inference with ONNX
pytorch 모델을 바로 서빙에 사용할 수 있도록 Pytorch로 개발한 모델(using transformers)을 onnx포멧으로 변환하고 모델최적화, 그리고 onnxruntime으로 서빙하는 과정 설명
[CNN Networks] 9. Deep Compression 리뷰
Pruning과 Quantization을 활용해 모델 압축을 하는 Deep compression에 대해 정리한 내용입니다.
MNIST Quantization Aware Training example
딥러닝 모델에서의 Quantization이란 부동소수점 형식으로 연산되는 모델의 학습과 추론을 정수형으로 변환하는 것과 같은 방법을 통하여 학습과 추론의 시간을 단축하고 모델의 크기를 줄이는 것이다. 이때, Quantization을 하는 과정에서 정확도가 Quantiz
딥러닝 Quantization(양자화) 정리
모델의 파라미터를 lower bit로 표현함으로서 계산과 메모리 access 속도를 높이는 경량화 기법보통 32비트 부동소수점 연산을 8비트 정수로 변환하는 방식 사용 \- pytorch, tensorflow의 default data type = fp32Quant
[Paper-Review] Training with Quantization noise for Extreme Model Compression
Model Compression 관련 논문 중 첫 번째로 리뷰할 논문은 Training with Quantization noise for Extreme Model Compression이라는 논문이다.이 논문은 Facebook AI에서 Arxiv에 2020.04.17일에