computationally intensivememory intensivepruningtrained quantizationHuffman codingpruning -> quantization -> Huffman coding전체: storage requirements를 3
https://developer.nvidia.com/ko-kr/blog/nvidia-tools-extension-api-python-및-c-c에서-코드를-프로파일링하기-위한-주석/
사양windows 11wslubuntu2204.exertx 3060cuda 11.6cudnn 8.7체크 할 것tensorrt download linktensorrt path 설정pycuda
https://github.com/NVIDIA/TensorRT/blob/main/quickstart/IntroNotebooks/4.%20Using%20PyTorch%20through%20ONNX.ipynb
ubuntu2204.exefontwarning: setlocale: LC_CTYPE: cannot change locale (UTF-8)
PyTorch는 M1 Macbook의 GPU를 "mps"라는 이름으로 구동 가능예제를 돌렸을 때, MPS가 약 10배 빠름PyTorch Profiler는 MPS 지원은 아직 안되는 것 같다.M1 CPU로 돌렸을 때M1 MPS로 돌렸을 때
https://codethief.io/ko/m1-맥북의-pyenv-환경에서-torchvision-import시-에러module-not-found-error-no-module-named-\_lzma/
도구 두 가지 PyTorch Profiler TensorBoard Detail PyTorch Profiler Typical steps to optimize your model PyTorch Profiler의 profiling 결과는 TensorBoard에서 확인할
ONNXTensorRTPyTorch MobileTensorFlow LiteNCNNONNX다양한 machine learning framework의 산출물들을 ONNX 형식으로 변환함ONNX Design Principlestraditional ML, DNN 지원빨리 개선할
QuantizationPruningKnowledge DistillationLow-Rank ApproximationWeight SharingOthersQuantization: This involves reducing the number of bits used to rep
Abstract무어의 법칙 끝남DNN은 메모리 및 많은 연산 필요 -> compression, hardware acceleration 필요trade off: processing efficiency vs application accuracycomprehensive한 su
적절한 image format 찾기변환 소요시간이 짧으면 좋다.용량을 적게 차지하면 좋다.프레임 별 구분이 가능해야 한다.jpegswebpsgif (Animation)webp (Animation)
https://edudeveloper.tistory.com/131