LLM에 대해서

nebchi·2024년 3월 19일
0

LLM

목록 보기
1/11

LLM

  • Large Language Model의 약자로, 대규모 데이터 세트에서 훈련된 언어 모델을 의미한다.
  • 해당 모델은 자연어처리에서 텍스트 생성, 요약, 분류, 감정 분석, 개체명 인식 등 다양한 작업을 수행할 수 있다.

LLM을 만들기 위해 필요한 것
1) 대규모 텍스트 데이터(Alpaca, SQuAD)
2) 엄청난 연산량의 컴퓨팅 리소스
3) 트랜스포머 모델

Incontext-Learning

  • 모델을 파인튜닝하지 않고, Input값을 잘 설정하여 적절한 답변을 유도하는 방법에서 시작됨
    1) 제로샷 러닝 : 추가적인 설명 예제 없이 바로 문제를 해결하려는 방법
    2) 원샷 러닝 : 추가적인 설명 예제 1개와 함께 문제를 해결하려는 방법
    3) 퓨샷 러닝 : 추가적인 설명 예제 n개와 함께 문제를 해결하려는 방법

  • 사용자 입장에서는 제로샷 러닝이 편하지만, 모델의 입장에서는 퓨샷 러닝을 통해 좀 더 해결하고 하는 문제를 자세히 이해할 수 있음

전이학습

  • 파인튜닝이라고 불리는데, 해당 기법은 이미 학습된 LLM모델의 파라미터에 새로운 Task에 맞춰 미세 조정하는 방법으로, 대표적으로 LoRA가 있음.

RLHF

  • GPT의 대표적인 학습 방법 중 하나로, 학습이 끝난 LLM 모델이 질문에 대한 여러 프롬프트를 생성하고, 해당 프롬프트에 대해 사람이 점수를 매긴 뒤, 가장 높은 점수를 가진 모델이 출력하도록하는 기법
    => 이를 통해 인종, 범죄, 욕설 등 유해한 콘텐츠를 출력되지 않게 할 수 있음.

창발

  • 창발은 시스템의 양적변화가 행동의 질적 변화로 이어질 때 발생한다는 의미
  • 큰 LLM 모델을 학습하는 과정에서 특정 임계치를 넘으면 기존의 작은 LLM에서 발생하지 않았던 새로운 능력이 발현됨.
    -> 모델을 학습하는 과정에서 선형적으로 성능이 좋아지는것이 아닌, 특정 임계치를 넘으면 급격하게 성능이 좋아짐을 의미

Temperature

  • 온도라고 불리는데, 온도가 높을 수록, 다양한 텍스트를 생성하게 도움을 주고, 온도가 낮을수록 일관되고, 가장 그럴듯한 의미가 뽑힐 확률을 높여준다.
  • OpenAI의 GPT-3.5에서 Temperature 값을 바꿔보면서 생성하는 텍스트 차이를 확인할 수 있다.
profile
NLP Developer

0개의 댓글