Chain of Agents: Large Language Models Collaborating on Long-Context Tasks

하임·2026년 1월 9일

long context

목록 보기
6/6

https://proceedings.neurips.cc/paper_files/paper/2024/file/ee71a4b14ec26710b39ee6be113d7750-Paper-Conference.pdf

해당 논문 "Chain of Agents: Large Language Models Collaborating on Long-Context Tasks" (NeurIPS 2024)긴 문맥(long-context) 처리 문제를 해결하기 위해 다중 에이전트 협업 프레임워크인 Chain-of-Agents (CoA) 를 제안한 논문입니다.


🔍 1. 연구 배경과 문제점

대형 언어 모델(LLMs)은 긴 문맥을 다루는 데 어려움을 겪습니다. 일반적으로 두 가지 접근이 사용되어 왔습니다:

  • 입력 축소 (Input Reduction):
    • 예: RAG (Retrieval-Augmented Generation)
    • 문제: 중요한 정보를 빠뜨릴 가능성 있음.
  • 윈도우 확장 (Window Extension):
    • 예: Claude-3 (최대 200k tokens)
    • 문제: '중간에서 잃어버림(Lost-in-the-Middle)' 현상 발생, 중요한 정보에 집중 어려움.

🔗 2. Chain-of-Agents (CoA) 제안

CoA는 여러 에이전트가 협업하여 긴 문맥을 처리하는 트레이닝 없이 사용 가능한(training-free), 과제-불문(task-agnostic), 고해석성(highly interpretable) 프레임워크입니다.

구조:

  1. Worker Agents:
    • 긴 문서를 짧은 chunk로 분할 후, 각 chunk를 처리.
    • 이전 에이전트로부터 받은 메시지(CU, Communication Unit)를 다음 에이전트로 전달.
  2. Manager Agent:
    • 마지막 worker agent로부터 전달받은 정보를 바탕으로 최종 응답 생성.

🧠 3. CoA의 핵심 아이디어

  • 인간이 긴 문서를 읽고 기억하는 방식에서 영감을 받음: "읽으면서 생각하기 (interleaved read-process)".
  • 각 에이전트는 적은 양의 context만 보고 reasoning을 수행.
  • Sequential communication 구조로 전체 문맥에 걸친 추론 가능.

📊 4. 실험 결과

  • 9개 데이터셋, 6개 LLM (PaLM2, Gemini, Claude3 등) 사용.
  • 실험 영역: 질문 응답(HotpotQA, NarrativeQA 등), 요약(GovReport, BookSum), 코드 완성(RepoBench-P)

주요 결과:

모델HotpotQANarrativeQABookSum
Vanilla (200k)7.176.5614.00
RAG (8k)5.715.86-
CoA (8k)18.8023.9617.47
  • 긴 문서를 다룰수록 CoA의 효과가 두드러짐.
  • Claude3와 같은 초장문맥 모델보다도 더 나은 성능 보임.
  • “Lost in the middle” 현상도 효과적으로 완화.

🧪 5. 추가 분석 및 특징

  • 다중 경로 추론(Multi-path reasoning):
    • 다양한 순서(좌→우, 우→좌, 랜덤)를 시도하고 투표 또는 평가자를 통해 최적 결과 선택 가능.
    • Oracle 성능은 매우 높아, 잠재적 개선 여지 많음.
  • 병렬화 가능성:
    • 각 worker agent는 독립적으로 처리 가능하므로, 병렬 처리로 속도 향상 가능.
  • 정보 손실 최소화:
    • 일부 정보는 propagation 중 손실되지만, 최종 성능에 큰 영향 없음 (정보 손실율 평균 1~4%).

6. 장점 요약

항목설명
학습 불필요학습 없이 사용 가능 (Training-free)
과제 무관QA, 요약, 코드 등 다양한 과제 적용 가능
효율적O(n²)에서 O(nk)로 시간 복잡도 감소
해석 가능성각 에이전트의 reasoning 추적 가능
LLM 한계를 보완각 agent가 짧은 문맥만 보기 때문에 집중력이 향상됨

⚠️ 7. 한계 및 향후 방향

  • 에이전트 간 커뮤니케이션은 현재 자연어 기반으로만 이루어져 있어, 효율성 개선 가능.
  • 토론(debate), 합의(consensus) 등 다양한 커뮤니케이션 방식 탐색 가능.
  • 모델 라우팅, 에이전트 간 적절한 역할 분배 등은 향후 발전 방향.

📌 요약

CoA는 길고 복잡한 문맥을 다루는 데 있어 기존 방법(RAG, Full-Context) 대비 높은 성능을 보여주는 다중 에이전트 기반 협업 프레임워크입니다. 특히 학습 없이 적용 가능하며 다양한 모델과 태스크에 유연하게 활용될 수 있다는 점에서 큰 의의가 있습니다.


profile
NLP 공부합니당

0개의 댓글