24.12.09 - 24.12.13
LLM을 수업한 지 한 달이 되어가면서 점점 이해가 되어가는 것 같아 만족스롭고, 특히 챗봇의 원리가 어떻게 작동하는지 조금씩 알게 되어 재미를 느끼며 수업을 듣고 있다. 학원에서 제공한 교재들도 학습에 큰 도움이 되고 있는데, 그중에서도 'GPT-4, ChatGPT, 라마인덱스, 랭체인을 활용한 인공지능 프로그래밍'이라는 책이 큰 틀을 잡는 데 많은 도움을 주었다.
이번 주에는 RAG(Retrieval Augmented Generation)에 대해 배웠다.
R : Retrieval
A : Augmented
G :Generation)
쉽게 말해! RAG는 언어모델이 가지고 있지 않은 정보(데이터)를 가져와서 이미 알고 있는 것처럼 하여 언어를 생성하는 것이다.
PS) R,A는 개발자의 몫 G는 LLM의 몫이라고 볼 수 있는데 앞으로 나에게 주어진 숙제는 데이터를 잘 저장하고! 잘 전달(프롬프트 잘 활용하기)하는 것!일 듯 싶다. 모델의 활용도의 확장은 곧 나의 몫...!
이번 주에 PCCE 시험이 있었지만 코딩 테스트 준비를 충분히 하지 못하기도 했고 일정이 맞지 않아서 신청하지 않았다. ㅜㅜ 다음번에는 신청해서 꼭 봐야겠다.
다음주부터 깊이 파인튜닝과 멀티모달 개념에 대해 배울텐데 특히 멀티모달은 텍스트, 이미지, 음성 등 다양한 데이터를 결합하여 모델을 학습시킬 수 있어서 흥미로운 주제인것 같다. 앞으로 풍부한 데이터 기반의 모델을 만들기 위해 열심히 공부해야겠다!