profile
A bit nerdy

[MLOps] Triton Inference Server 구축기 2 - model repository 만들기

이전 글에서 triton inference server를 docker로 띄우는데 성공하였다면, 이제 serving 하고자 하는 모델을 trained model들이 위치하게 된다. 이어지는 블로그 글에서 자세한 내용을 적을 예정이다. 여기서 지정한 로컬 모델 경로에는

2023년 3월 1일
·
0개의 댓글
·

[MLOps] Triton Inference Server 구축기 1 - 설치

공식 문서에서 추천하는 triton build 및 deployment 방법은 docker 이미지를 통한 빌드이기 때문에 추천하는 방식으로 블로그를 쓰려고 한다. 1. Docker, NVIDIA Container Toolkit 설치하기 Triton inference

2023년 2월 24일
·
0개의 댓글
·

[MLOps] Triton Inference Server 구축기 0 - 공식 문서 모음

Triton으로 inference server를 구축하는 과정에서 정보가 많이 없어 고생을 많이 하고 있다. 예시도 많이 없을 뿐더러, Nvidia에서 나온 공식 문서도 이곳 저곳 흩어져 있어서 이곳에 정리해보려 한다.

2023년 2월 24일
·
0개의 댓글
·
post-thumbnail

[MLOps] Inference Model Format

Inference model formats for production deployment

2023년 2월 16일
·
0개의 댓글
·

[MLOps] PyTorch 모델을 TensorRT로 변환하기

In this tutorial, converting a model from PyTorch to TensorRT™ involves the following general steps:Build a PyTorch model by doing any of the two opti

2023년 2월 15일
·
0개의 댓글
·