요즘 Chat GPT의 출시로 인해 LLM에 대한 관심이 커져가면서 LLM과 연관된 Prompt Engineering에 대한 관심도 높아지고 있다.
나는 주로 Coursera나 Udemy에서 Tech 관련된 강의를 듣는데
Prompt Engineering에 관한 강의들이 많아지고 있다.
물론 LLM 자체를 개발하는 것도 중요하지만 다양한 분야에 앞으로 LLM이 적용되면서 LLM을 어떻게 잘 활용할 것인가?가 중요한 화두가 된 것 같다.
이 글에서는 LLM과 Prompt Engineering에 대해 정리해보고자 한다.
LLM(Large Language Model)은 방대한 양의 텍스트 데이터로 훈련을 해서 자연어 이해 및 생성을 하는 모델로 다양한 언어 관련 작업을 진행할 수 있다. GPT-3, BERT, Transformer 와 같은 대규모 언어 모델의 등장 및 발전을 통해 자연어 처리 분야에서 혁신이 일어나고 있다.
현재 GPT-4 모델이 출시되었고 많은 사람들이 사용하는 Chat GPT는 해당 모델을 활용한 AI 기반 대화 시스템이다.
LLM의 데이터 학습 방식을 이해하기 위해서는 모델이 어떻게 텍스트 데이터를 처리하고 학습하는 지가 중요하다.
LLM이 언어를 이해하고 생성하기 위해서는 다양한 기술이 필요하다.
LLM에게 특정한 출력을 유도하기 위해 입력(Prompt)를 설계하는 일이다.
LLM의 성능은 입력되는 프롬프트에 의해 크게 좌우된다.
같은 내용을 질의하더라도 얼마나 상세하게, 어떤 형식으로 질문하냐에 따라 답변의 질이 달라지게 된다.
이러한 중요성이 강조되면서 Prompt Engineering이라는 분야가 주목받게 되었다.
LLM은 입력된 프롬프트에 따라 출력값이 다르다.
효과적은 Prompt Engineering을 통해 LLM이 보다 정확한 결과를 제공하도록 할 수 있다.
Prompt Engineering을 통해 LLM의 성능 최적화 및 다양한 산업에 맞춤형 LLM 모델로 만들 수 있다.
https://www.coursera.org/specializations/prompt-engineering
https://www.udemy.com/course/chatgpt-ai-masterclass/
추후에 관련 강의를 수강하면서
AI 시대에 어떻게 LLM을 활용할 것인지 공부해보고자 한다.