Create a bright and engaging infographic-style illustration that explains the concepts of “Chain of Thought (CoT)” and “ReAct” in large language models.
Scene 1 (CoT): Show a thoughtful AI robot sitting at a desk with a notepad, drawing a sequence of logical steps in bubbles (e.g., “Thought → Action → Action Input → Observation”), connected by arrows. Use a clear example such as solving a math problem (e.g., "5x + 3 = 23"). The atmosphere should be calm and analytical, with light blue and soft gray tones.
Scene 2 (ReAct): Next to it, depict the same AI robot actively interacting with the world—looking up weather information on a computer, checking an observation, then taking another action (e.g., handing someone an umbrella). The steps “Think → Act → Observe → Repeat” should be shown in a loop diagram. Use dynamic poses, bright yellows and greens to convey action.
Include small icons for “thought” (light bulb), “action” (gear or hand icon), and “observation” (eye icon) to make the cycle clear.
The style should be modern, friendly, and easy to understand, suitable for a tech blog audience, with clean vector lines and simple, bold colors.

정의
Chain of Thought(이하 CoT)는 대규모 언어 모델(LLM)이 답을 결정하기 전, 내부적으로 ‘생각하는 과정’을 거치도록 유도하는 기법이다. 이를 통해 단순한 결과 출력이 아니라, 답에 도달하기까지의 논리적 흐름을 함께 제시한다.
대표 논문으로는 *“Chain-of-Thought Prompting Elicits Reasoning in Large Language Models”*가 있다.
작동 방식
CoT는 다음과 같은 사고 전개 과정을 거친다.
생각(Thought) → 행동(Action) → 행동 입력(Action Input) → 관찰(Observation) → 반복
목표에 도달할 때까지 이 사이클을 계속 수행한다.
예제
문제: 어떤 수의 5배에 3을 더하면 그 값은 23입니다. 그 수는?
장점
단점
CoT는 AI가 단순히 ‘정답을 아는 것’처럼 보이게 하는 것이 아니라, 스스로 생각하는 것처럼 보이게 만드는 기술이다.
정의
ReAct(Reasoning + Acting)는 LLM이 생각과 행동을 번갈아 수행하며 문제를 해결하는 프레임워크다. CoT가 ‘생각 중심’이라면, ReAct는 실행 중심의 순환 구조를 가진다.
작동 구조
예제
질문: “내일 날씨 어때?”
장점
단점
두 방법을 결합하면, 논리적 일관성 + 실시간 실행력을 모두 갖춘 강력한 AI 에이전트를 구현할 수 있다.
참고문헌