LLM(Large Language Model)
언어를 먹고 언어를 뱉는 AI. 언어를 이해하진 못하고 예측할뿐.
-LLM을 개선하는법-
1.fine-tuning (미세조정): 특정 매개변수를 조정
장점: 작업속도가 빠름
단점: 결과를 보는데 오래걸림
2.RAG(검색증강생성)활용: 참고해서 답변을 만들수있는 또 다른 정보의 장을 만듬
장점: 별도의 학습을 시키지 않아도됨
단점: 설계,구축,적용,유지보수 작업 필요함. 비용이 많이 듬
프롬프트: LLM에 입력하는 모든 문장. 지시문.
-프롬프트의 요소-
1.지시(Instruction)
2.입력값(Input Data)
3.문맥(Context)
4.출력 지시자(Output Indicator)
5.예시(Example)
자유도(temperature): 답변의 자유도-> 너무 높으면 환각이 발생할수있음.
토큰(token): 문장을 자르는 기준.
-프롬프트 기법-
1.Zero-Shot Prompting: 예시 없이 작업을 제시
장점: 별도의 학습을 수행할 필요 없음.
단점: 기존에 학습된 내용에 의지하기 때문에 LLM의 성능에 달려있음.
2.Few-Shot Prompting: 예시를 포함시켜 성능을 향상시키고 지시
장점: 출력결과 예상 가능.
단점: 예시가 명확해야하고 정확한 답을 위해선 프롬프트가 길어짐.
3.Chain-of-Thought Prompting:사고과정을 단계별로 거쳐 추론하도록 유도
장점: 피드백하기 쉽다.
단점: 내용이 쓸데없이 길어질수있음.
4.Tree of Thought: 여러 가능성을 탐색하고 최적의 경로를 찾는 방식
장점: 여러 해결책을 구할수있음.
단점: 검증이 필요하거나 검증이 어려움.
5.Structured Prompting: 구조를 갖춰서 절차지향적으로 프롬프트를 작성하는 방법
장점: 절차를 수행하는데 가장 직관적임
단점: 기계의 입장에서 프롬프트를 작성해야함
6.Generated Knowledge Prompting: 응답 정확도와 추론 능력을 향상시키기 위한 엔지니어링 기법
장점: 정확도와 추론력 향상에 도움
단점: 생성된 지식이 부정확할 경우 답이 더 크게 틀릴 위험.
Halluciation(환각): 실제하지 않거나 잘못된 정보를 보여주는것.