
데이터 준비: 필요한 데이터를 수집하고 정리하여 머신러닝 알고리즘에 적합한 형식으로 변환
모델 구축 및 학습: 적합한 알고리즘을 선택하고 사전 처리된 데이터를 입력하여 패턴을 학습하고 예측할 수 있도록 하며 반복적인 하이퍼 파라미터 튜닝과 반복 가능한 파이프라인을 통해 모델의 정확도를 개선한다.
모델 배포: 모델을 API로 서빙
모델 관리 및 모니터링: 성능 메트릭을 모니터링하고, 데이터 및 모델 드리프트를 감지하고, 모델을 재교육하고, 이해 관계자에게 모델 성능을 전달
| Model Selection | Training / Fine-tuning data prep | Model Configuration | Monitoring training / fine-tuning process | Deploy the trained/ fine-tuned model | Maintain model in production(Monitor, upgrade, replace) |
|---|---|---|---|---|---|
| 모델 버전 평가 및 선택 | 데이터 수집, 랭글링, 정리 및 라벨링 | 하이퍼파라미터 튜닝을 포함한 파인 튜닝 프로세스 설정 | 메트릭 추적, 훈련 중 모델 성능 평가 | 학습된 모델 스테이징, 테스트 및 배포 | 모델 성능 모니터링측정된 성능에 기반하여 업그레이드 또는 교체 |

| Model Selection | Training / Fine-tuning data prep | Model Configuration | Monitoring training / fine-tuning process | Deploy the trained/ fine-tuned model | Maintain model in production(Monitor, upgrade, replace) |
|---|---|---|---|---|---|
| 사전 학습된 모델 평가 및 선택 | 다양성과 대표성에 중점을 둔 대규모 데이터 수집자동 라벨링 기법을 사용 | 프롬프트 디자인과 모델에 맞는 조정을 고려한LLM을 위한 파인튜닝 설정 | 파인튜닝 진행 상황 모니터링, 메트릭 추적, 문제 식별 및 조정 | 파인튜닝된 LLM을 배포 | 지속적인 모니터링, 필요한 업그레이드 식별진화하는 요구 사항과 발전에 따라 모델 교체 검토 |

예상 LLMOps 변환
- 데이터 준비 및 모델 학습
- 온프레미스나 클라우드에서 대규모 언어 데이터를 수집, 정제
- 사전 학습된 LLM(OpenAI GPT, LLaMA 등)을 훈련
- 데이터 사이언티스트가 모델 학습 코드를 작성해 S3에 업로드
- 파이프라인 통과
- AWS Step Functions와 SageMaker Pipelines를 사용해 학습과 파인튜닝 과정을 자동화
- 언어 모델 특화된 LoRA(저랭크 적응)나 QLoRA 같은 기법을 활용해 대규모 모델을 효율적으로 튜닝
- 컴파일 및 Model Registry 등록
- AWS Neuron SDK 대신 Hugging Face Optimum이나 ONNX Runtime을 활용해 모델을 경량화 및 최적화.
- 학습된 모델을 SageMaker Model Registry에 등록하여 버전 관리
- 배포 및 추론
- SageMaker Endpoint를 통해 API로 대화형 LLM 제공
- 다중 모델 로딩(A/B 테스트, Canary 배포)과 고가용성 확보
- 추론 요청은 API Gateway를 통해 클라이언트와 연결

예상 LLMOps 변환
- 데이터 준비 및 전처리
- 기존의 Airflow와 EMR은 대규모 언어 데이터 준비에 그대로 사용
- 전처리된 데이터는 S3와 함께 VectorDB 에도 적재
- 모델 학습 및 파이프라인
- 데이터 사이언티스트가 작성한 LLM 학습 파이프라인 코드를 GitLab에 게시
- Jenkins가 파이프라인을 트리거 → SageMaker Pipeline으로 학습, 파인튜닝, 최적화를 자동화
- 모델은 학습 후 SageMaker Model Registry에 등록
- RAG 통합
- MongoDB 대신 VectorDB를 활용해 Retrieval-Augmented Generation(RAG) 구성
- LLM이 실시간으로 외부 데이터를 검색하여 추론의 맥락을 강화
- 배포 및 추론
- AWS Lambda를 활용하여 SageMaker Endpoint에 저장된 모델로 실시간 추론
- 추론 요청은 API Gateway → Lambda → SageMaker Endpoint의 경로로 처리
- API 응답에는 LLM의 생성 결과와 검색된 추가 정보가 포함될 수 있음








