# serving

27개의 포스트

[MLOps] Triton Inference Server 구축기 2 - model repository 만들기

이전 글에서 triton inference server를 docker로 띄우는데 성공하였다면, 이제 serving 하고자 하는 모델을 trained model들이 위치하게 된다. 이어지는 블로그 글에서 자세한 내용을 적을 예정이다. 여기서 지정한 로컬 모델 경로에는

2023년 3월 1일
·
0개의 댓글
·
post-thumbnail

[MLOps] Inference Model Format

Inference model formats for production deployment

2023년 2월 16일
·
0개의 댓글
·

[MLOps] PyTorch 모델을 TensorRT로 변환하기

In this tutorial, converting a model from PyTorch to TensorRT™ involves the following general steps:Build a PyTorch model by doing any of the two opti

2023년 2월 15일
·
0개의 댓글
·

Triton Inference Server 사용법

Triton Inference Server 는 NVIDIA 에서 공개한 open-source 추론 지원 소프트웨어입니다. 그렇다면 굳이 사용하는 이유는? 개인적으로 생각하기에 가장 큰 이유는 편해서입니다. 따로 backend 라이브러리를 공부할 필요 없이, 학습된 모델

2023년 1월 29일
·
0개의 댓글
·
post-thumbnail

Product Serving Error 모음집

🏃‍♂️Continuous Update 예정

2023년 1월 10일
·
0개의 댓글
·
post-thumbnail

[BentoML] 오픈소스 기여를 해보다.

프로젝트에서 모델 서빙 프레임워크로 BentoML을 사용하고 있고, boto3를 사용해서 AWS S3에 객체를 업로드 하고자 했다. 프라이빗 버킷에 접근하기 위해서 AWS credentials을 Bento에 전달해야 했고, 아래와 같이 BentoML에 나와있는 방식으로

2022년 10월 21일
·
2개의 댓글
·
post-thumbnail

2. 실습_AWS & 실습 환경 세팅(ing)

Mac OS or Linux : 자체 터미널에서 바로 수행 가능Windows : OpenSSH 클라이언트 설치 후 CMD 또는 PowerShell에서 진행.다행히 나는 OpenSSH가 깔려있어서 CMD에서 바로 진행할 수 있었다.\~~chmod 400 kdt.pem :

2022년 10월 16일
·
0개의 댓글
·
post-thumbnail

6_Flask 기반 감성분석 API 개발

1. 네이버 영화리뷰 감성분석 개요 네이버 영화리뷰 데이터로 학습한 ML/DL 모델을 활용해 감성분석 API 개발 나이브 베이지안 모델과 딥러닝 모델로 학습한 두 개의 모델을 서빙하며 0은 부정을, 1은 긍정을 의미 과정 영화 리뷰 텍스트 POST predict 요

2022년 10월 15일
·
0개의 댓글
·

5. 실습_Inference를 위한 model handler 개발

학습된 모델을 REST API 방식으로 배포하기 위해 학습된 모델의 Serialization과 웹 프레임워크를 통해 배포 준비 필요모델을 서빙할 때는 학습 시의 데이터 분포나 처리 방법과의 연속성 유지 필요모델을 배포하는 환경에 따라 다양한 Serving Framewo

2022년 10월 14일
·
0개의 댓글
·
post-thumbnail

4. 실습_Serialization&De-serialization

Model serving 학습된 모델을 REST API 방식으로 배포하기 위해 학습된 모델의 Serialization과 웹 프레임워크를 통해 배포 준비 필요 모델을 서빙할 때는 학습 시의 데이터 분포나 처리 방법과의 연속성 유지 필요 모델을 배포하는 환경에 따라 다양한

2022년 10월 14일
·
0개의 댓글
·
post-thumbnail

Yolov5 모델을 BentoML을 이용해 Serving 해보자

사내에서 병원의 마약 이미지를 이용하여 마약을 분류하는 모델을 개발하였습니다.이 모델은 Yolov5를 이용해 개발하였고 pytorch 기반으로 작성하였습니다.실제 배포방식을 고민하며 flask보다 API Serving이 좋다고 소문나있는 BentoML에 얹는 방법을 공

2022년 9월 7일
·
0개의 댓글
·
post-thumbnail

KFServing with Kafka

KFServing과 Kafka를 함께 사용하는 경우에 대해 설명한다.

2022년 7월 20일
·
0개의 댓글
·
post-thumbnail

Kafka Streams with KFServing

Kafka Streams 분석 및 Serving 연동 방안

2022년 7월 5일
·
0개의 댓글
·
post-thumbnail

[MLOps] Multi-Model 서빙을 위한 RedisAI Cluster 구축하기 2편 - How to build RedisAI Cluster?

지난 글에서 RedisAI가 무엇인지 그리고 RedisAI와 FastAPI를 활용한 간단한 추론 서버를 구성해보았습니다. 하지만 운영환경에서 언제 늘어날지 모를(정말 언제 늘어날지 모른다고 한다..🥹) 트래픽을 감당하기 위해서는 확장성을 고려한 스케일 인/아웃이 가능

2022년 7월 1일
·
0개의 댓글
·
post-thumbnail

[MLOps] Multi-Model 서빙을 위한 RedisAI Cluster 구축하기 1편 - What is RedisAI ?

최근 팀에서 자체 NLU 모델을 개발하며 Multi-model Serving에 대한 수요가 생겨났습니다. 각 고객(에이전트)마다

2022년 6월 28일
·
0개의 댓글
·
post-thumbnail

배포 전략(A/B, Canary)

A/B테스트, Canary 배포에 대해 설명한다

2022년 6월 28일
·
0개의 댓글
·
post-thumbnail

Knative 분석

서버리스 워크로드를 빌드, 배포, 관리하기 위한 K8s 기반 플랫폼

2022년 6월 28일
·
0개의 댓글
·
post-thumbnail

Istio 분석

마이크로 아키텍처의 서비스 메쉬

2022년 6월 28일
·
0개의 댓글
·
post-thumbnail

Serving 프레임워크 비교

20년 기준 Serving 프레임웍 비교

2022년 6월 28일
·
0개의 댓글
·
post-thumbnail

MLOps(Serving) 시스템

MLOps의 Serving 단계에 대한 설명

2022년 6월 23일
·
0개의 댓글
·