LLM에게 복잡한 문제 해결을 유도할 때 보통 "Let's think step by step"처럼 Chain-of-Thought(CoT) 프롬프트를 넣거나, 사전 파인튜닝된 모델을 사용해야 한다고 알려져 있습니다.
하지만 Google DeepMind는 "프롬프트 없이도 모델이 스스로 CoT 추론을 할 수 있다면 어떨까? 라는 방식으로 접근합니다.

기존 방식은 Greedy Decoding으로 가장 확률 높은 토큰만을 선택했습니다.
그러나 논문에서는 Top-k 디코딩을 적용해, 여러 후보 토큰을 기반으로 다양한 reasoning 경로를 생성합니다.
이러한 다양한 경로 중 일부는 자연스럽게 단계적 추론(CoT) 형태를 띠며, 모델의 내재된 reasoning 능력이 드러나게 됩니다.

CoT Decoding
모델 확신도와 추론의 관계
다양한 벤치마크에서 성능 향상
✅ 프롬프트 설계 부담 감소
✅ 모델의 순수한 추론 능력 측정
✅ 다양한 모델에 적용 가능
이 논문은 단순히 디코딩 방식만 바꿨을 뿐인데도 놀라울 만큼 CoT 스타일 추론이 자연스럽게 등장한다는 점에서 매우 인상 깊습니다.
프롬프트 없이 CoT를 구현하고 싶다면 이 방식은 꼭 실험해볼 가치가 있습니다.
논문: CoT-Reasoning_without_Prompting
GitHub 구현: CoT without Prompting by Garrett Allen