https://taeyuplab.tistory.com/15
arkiv
2022.01
https://arxiv.org/abs/2201.11903
요약
- Chain-of-Thought Prompting 방식을 사용하면 LLM의 성능을 효과적으로 올릴 수 있다.
- series of intermediate reasoning steps
- few-shot prompting
- 8개의 프롬프트 예시만 가지고 PaLM 540B의 SOTA 달성
![](https://velog.velcdn.com/images/ese2o/post/2adde9f6-8c28-4f55-b7ff-e37a14b40d53/image.png)
- 모델이 논리적인 프로세스를 거쳐 해답을 찾을 수 있게 함
-> 최종 결과를 생성할 때 필요한 중간 과정 및 추론 과정 역시 모델 스스로 생성할 수 있게 하는 것
CoT의 특징
- decompose multi-step problems into intermediate steps
- require more reasoning steps
- provide opportunities to debug where the reasoning path went wrong
- few-shot prompting에 Chain-of-Thought를 추가한 것
- robustness; 모든 상황에서 기존의 standard prompting(few-shot prompting)보다 성능이 좋았다.
arithmetic(산술) reasoning, commonsense(상식) reasoning, symbolic reasoning(기호적 추론; last letter concentration, coin flip) 모두 성능을 향상시킴. 모델의 크기가 커질수록 효과가 더욱 좋고, 기호적 추론 태스크에서는 적어도 100B 크기의 모델 파라미터가 필요하다는 의견
![](https://velog.velcdn.com/images/ese2o/post/18105f2a-4651-4ef7-929f-6e5efcac4c19/image.png)