LLM: CoT; Chain-of-Thought

ese2o·2024년 12월 23일
0

https://taeyuplab.tistory.com/15

arkiv
2022.01
https://arxiv.org/abs/2201.11903

요약

  • Chain-of-Thought Prompting 방식을 사용하면 LLM의 성능을 효과적으로 올릴 수 있다.
  • series of intermediate reasoning steps
  • few-shot prompting
  • 8개의 프롬프트 예시만 가지고 PaLM 540B의 SOTA 달성
  • 모델이 논리적인 프로세스를 거쳐 해답을 찾을 수 있게 함
    -> 최종 결과를 생성할 때 필요한 중간 과정 및 추론 과정 역시 모델 스스로 생성할 수 있게 하는 것

CoT의 특징

  • decompose multi-step problems into intermediate steps
  • require more reasoning steps
  • provide opportunities to debug where the reasoning path went wrong
  • few-shot prompting에 Chain-of-Thought를 추가한 것
  • robustness; 모든 상황에서 기존의 standard prompting(few-shot prompting)보다 성능이 좋았다.

arithmetic(산술) reasoning, commonsense(상식) reasoning, symbolic reasoning(기호적 추론; last letter concentration, coin flip) 모두 성능을 향상시킴. 모델의 크기가 커질수록 효과가 더욱 좋고, 기호적 추론 태스크에서는 적어도 100B 크기의 모델 파라미터가 필요하다는 의견

0개의 댓글

관련 채용 정보