profile
A bit nerdy

[MLOps] Triton Inference Server 구축기 2 - model repository 만들기

이전 글에서 triton inference server를 docker로 띄우는데 성공하였다면, 이제 serving 하고자 하는 모델을 trained model들이 위치하게 된다. 이어지는 블로그 글에서 자세한 내용을 적을 예정이다. 여기서 지정한 로컬 모델 경로에는

2023년 3월 1일
·
0개의 댓글
·

[MLOps] Triton Inference Server 구축기 1 - 설치

공식 문서에서 추천하는 triton build 및 deployment 방법은 docker 이미지를 통한 빌드이기 때문에 추천하는 방식으로 블로그를 쓰려고 한다. 1. Docker, NVIDIA Container Toolkit 설치하기 Triton inference

2023년 2월 24일
·
0개의 댓글
·