언어모델은 말뭉치라고 하는 대량의 텍스트 데이터로부터 언어의 규칙과 패턴을 학습하여 새로운 문장을 생성하거나 이해하는 능력을 갖는다.
LLM: 엄청난 양의 데이터와 파라미터로 pre-training(사전 훈련)을 시키고, 다양한 자연어 처리과정에 적용하기 위해 fine-tuning(미세 조정)을 하는 방식이다. 문장 생성, 질의응답, 요약등의 작업에서 놀라운 성능을 보인다.
LLM이 언어를 학습하는 과정에는 딥러닝의 원리가 활용된다.
LLM은 문법 규칙이나 단어의 사전적 의미와 같은 구체적인 규칙은 따르지 않고,
빈도수나 문법적인 특성 등을 학습하여 문맥상 올바르게 문장을 생성할 수 있습니다.
문장속에서 이전 단어들이 주어지면, 다음 단어를 예측하거나 주어진 단어들 사이에서 가운데 단어를 예측하는 방식으로 작동합니다.
-> 시간과 비용이 많이 듬. -> sLLM이 등장함
sLLM: LLM에 가 적은 언어 모델이다. LLM보다 훈련 및 추론 시간이 짧고 비용이 저렴하다. sLLM은 특정 분야나 도메인에 맞춰 fine-tuning(미세 조정)을 통해 LLM과 비슷한 성능을 낼 수 있다.
sLLM 예시) '돌리'는 학습에 3시간이 들었고, 비용은 30달러에 불과했다.
하지만 sLLM도 완벽하진 않음 -> sLLM은 LLM보다 데이터와 파라미터가 적기 때문에 일반화에 한계가 있음. 새로운 지식을 습득하거나 창의적인 문장을 생성하는 능력이 떨어질 수 있다.
파인튜닝: 사전 학습된 언어 모델 전체를 대상으로 추가 작업 데이터를 이용해 모델을 재학습 시키는 방법. 모델 파라미터의 일부 또는 전체를 재학습하므로 작업 특정성이 높은 모델을 얻을 수 있다.
프롬프트 튜닝: 입력 텍스트에 특정 구조화된 프롬프트를 추가하거나 수정하여 모델의 동작을 조정하는 방법. 모델 출력을 조작하여 원하는 결과를 얻을 수 있도록 모델을 조정한다. 작업 특정성이 낮음
=>=> 결론적으로 LLM의 비즈니스 적용을 위해 모델 경량화와 학습 데이터 품질 향상이 중요한 과제이다.
활용:
LLM 핵심 기술:
LLM 구축 시 유의점:
LLM 구축 시 기업 주의점:
할루시네이션: 사실이 아닌 것을 사실처럼 말하는 환각 현상
-> 답변의 신뢰성을 확보하기 위해서는 기본적으로 신뢰도 높은 데이터를 사용해 학습하는 것이 중요하다. 그래서 해당 근거를 관련 자료로부터 찾아내는 검색기술 = RAG가 주목받는 것.
출처:
https://mgiwm.tistory.com/entry/sLLM%EC%86%8C%ED%98%95-%EC%96%B8%EC%96%B4-%EB%AA%A8%EB%8D%B8%EC%9D%98-%EC%9D%B4%EC%95%BC%EA%B8%B0%EC%99%80-%ED%99%95%EC%9E%A5-%EA%B0%80%EB%8A%A5%EC%84%B1
https://www.thedatahunt.com/trend-insight/what-is-llm