RAG (Retrieval-Augmented Generation)는 생성형 AI 모델의 성능을 향상시키기 위한 기술로, 지식 검색(Retrieval)과 생성(Generation)을 결합하여 대형 언어 모델(LLM)이 더 정확하고 유용한 응답을 생성하도록 합니다.
Retrieval (검색)
외부 DB/지식 창고에서 관련 정보를 검색하는 단계.
벡터화된 데이터와 벡터 검색 기술을 활용.
사용 기술
임베딩 모델 (Embedding): 텍스트를 벡터화.
벡터 검색 (Vector Search): 유사도 기반 검색 수행.
주요 알고리즘: FAISS, Pinecone, Weaviate.
Augmented Generation (보강된 생성)
검색 결과를 기반으로, LLM이 프롬프트와 컨텍스트를 활용해 답변 생성.
예시 단계
사용자 입력 질문 → 검색 수행.
관련 문서 검색 후 데이터를 읽음.
모델이 검색된 컨텍스트를 바탕으로 응답 생성.
최신성과 정확성 보장
효율적인 데이터 활용
모델 경량화 가능
도메인 특화 가능
단계별 프로세스
질문 입력 (Query)
질문 벡터화 (Embedding)
관련 문서 검색 (Retrieval)
프롬프트 생성 (Prompt Augmentation)
응답 생성 (Generation)
시스템 구성
구성 요소 | 설명 |
---|---|
사용자 입력 | 질문 또는 검색 요청. 예: “기후 변화 연구” |
벡터 데이터베이스 | 외부 지식을 벡터화해 저장 및 검색. |
텍스트 검색기 | 벡터 검색 엔진 (예: FAISS, Pinecone). |
언어 모델(LLM) | 검색된 문서를 프롬프트 보강 후 적합한 응답을 생성. |
지식 출력 | 최종 응답. 사용자 질문에 맞는 컨텍스트 포함. |
고객 지원
문서 요약 및 검색
의학 및 금융 서비스
교육 및 학습
벡터 데이터베이스
임베딩 모델
text-embedding-ada-002
, Hugging Face 모델.생성형 언어 모델
텍스트 검색 알고리즘
검색 정보 품질
도메인 지식 한계
대규모 데이터 성능
최신 정보 유지
OpenAI
text-embedding-ada-002
활용.LangChain
LlamaIndex
Pinecone