회사에서 모델을 개발하니 Production을 해야하고 이를 실제 배포까지 진행한다면 많은 단계를 거쳐야하고 모니터링 및 복구가 가능해야 합니다.이에따라 MLOps가 필요해졌고 고객요구에 따라 Sagemaker를 활용하여 MLOps를 구축하게 되었습니다.사실 MLOps
Your custom Huggingface model for MLOps pipeline in sagemaker.Preprocess dockerfileInference dockerfile(cpu or cuda) sagemaker-pytorch-inference-toolk
사내에서 병원의 마약 이미지를 이용하여 마약을 분류하는 모델을 개발하였습니다.이 모델은 Yolov5를 이용해 개발하였고 pytorch 기반으로 작성하였습니다.실제 배포방식을 고민하며 flask보다 API Serving이 좋다고 소문나있는 BentoML에 얹는 방법을 공
딥러닝 모델을 만들고 효율적인 AI/ML 프로세스를 위해 Sagemaker로 Pipeline을 작성했다면 만들어진 모델을 이용해 실제 서비스에 적용해야 합니다. 이때, Sagemaker에서 크게 4가지의 빌트인 모델 서빙 패턴을 제공해주는데 프로젝트에 맞는 서빙 패턴을