# CoT
[Paper Review] Design of Chain-of-Thought in Math Problem Solving
최근 LLM을 이용하여 수학 문제를 푸는 task가 굉장히 활발히 연구 되고 있음수학 문제를 해결하는 것은 LLM에서 multi-step의 추론을 하는 가장 이상적인 task이기 때문특히, 최근 LLM의 등장에 의해 단순한 NLP Task는 모두 해결되는 추세이나 용인
[Paper Review] The COT COLLECTION: Improving Zero-shot and Few-shot Learning of Language Models via Chain-of-Thought Fine-Tuning
Large text corpora로부터 pretrained된 LM와 CoT를 이용하여 근거를 찾아내고 그걸 바탕으로 최종 예측을 하는 LLM들이 많아지고 있음.LM에서 수행하는 CoT 같은 경우 LLM인지 아닌지에 따라 성능이 극명하게 갈림특히, 100B 이상부터는 추
1. CoT와 FewShotPrompt 조합하기
이 글은 디스콰이엇에도 게시되는 글이며, 모든 예제는 GPT-3.5 기준으로 작성되었습니다.제가 만들고 있는 프로젝트는, "취준생을 위한 면접 연습 서비스"입니다. 🤩핵심 기능은 다음과 같습니다.1\. 모집공고와 자소서 분석으로 개인 맞춤형 질문을 제공한다.2\. 상

Chain-of-thought prompting elicits reasoning in large language models (NIPS 2022)

[LLaMA 관련 논문 리뷰] 02-Scaling Instruction-Finetuned Language Models (Instruction Tuning)
이전 글에 이어서 Instruction Tuning 관련 논문을 리뷰하겠습니다. 오늘 리뷰할 논문은 Instruction Tuning에 CoT prompting을 추가하여 모델의 resoning ability를 증진할 수 있는지 실험한 논문입니다. Scaling In

[Paper Review] Specializing Smaller Language Models towards Multi-step Reasoning
Main Idea Large Language Model(LLM)의 퍼포먼스가 높아지면서 Small Language Model(SLM)가 할 수 없는 Task들이 점차 생겨나고 있다. 특히 Multi-step reasoning(복잡 논리 추론) in math probl

Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 정리
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 논문 요약 정리