AI agent 기초 개념

Sujin Koo·2026년 1월 18일

오늘은 에이전트와 관련된 기본 개념들을 간단하게 정리해보고자 합니다.
최근 AI 기술 업계의 뉴스들을 보면 AI 에이전트라는 단어를 많이 사용합니다.
평소에 ChatGPT 같은 대규모 언어 모델(LLM)은 많이 사용해 보셨을 텐데요. 그렇다면 에이전트란 무엇이고, LLM과는 어떻게 다를까요?


Agentic AI와 LLM의 차이점

LLM은 방대한 텍스트 데이터를 학습해 인간의 질문에 답변하거나 글을 생성하는 모델입니다. 예를 들어 많이들 사용하는 ChatGPT, Claude, Google Gemini 등이 모두 LLM의 사례이지요. 이런 LLM은 지식과 언어 능력이 뛰어나 여러 분야의 질문에 답할 수 있지만, '수동적'인 특성을 가진다는 점이 특징입니다. 즉, 사람이 물어봐야만 답변을 생성하고, 스스로 새로운 행동을 시작하지는 않습니다. ChatGPT를 떠올려 보면, 사용자가 질문을 입력해야 비로소 답을 만들어주는 형태입니다.

반면 Agentic AI는 AI 스스로 목표를 세우고 추론하며 행동까지 수행하는 시스템을 의미합니다. 에이전트는 단순히 질문에 답하는 것을 넘어, 필요한 작업을 계획하고 외부 도구를 사용해 실행함으로써 연속적인 목표 달성을 시도합니다. 다시 말해, 이런 에이전트형 AI는 사람의 지속적인 개입 없이도 문제를 풀기 위해 스스로 추론(Reason)하고 행동(Act)하는 주체라고 할 수 있습니다.

사용자가 “시장 조사를 해서 사업 계획을 만들어줘” 같은 포괄적인 목표를 주면, 에이전트는 먼저 그 목표를 달성하기 위한 세부 단계들을 계획합니다. 그리고 각 단계에서 필요한 정보를 검색하거나 계산하는 등 도구(tool)를 활용해 행동을 실행합니다. 실행 결과를 검토해 피드백을 반영하고, 다음 행동을 조정하면서 목표를 향해 나아가죠. 이러한 사이클을 사람의 추가 지시 없이 반복하여 최종 목표를 이루려고 시도하는 것이 Agentic AI의 핵심입니다

검색 증강 생성 (RAG) 기술 – LLM의 한계 보완

에이전트 개념과 함께 요즘 자주 언급되는 기술로 RAG가 있습니다. RAG는 Retrieval-Augmented Generation의 약자로 최신 정보 부족과 긴 문맥 처리 한계를 해결하는 데 유용합니다.

기존의 LLM은 훈련 시 주어진 데이터만을 기억하고 있기 때문에, 예를 들어 2025년까지의 데이터로 학습된 모델은 2026년 이후 발생한 새로운 사실을 알 수 없습니다. 또한 LLM이 한 번에 처리할 수 있는 문맥 길이에도 제한이 있어서, 방대한 양의 최신 데이터나 사내 문서를 모두 포함해 질문을 답하기 어렵죠. 이로 인해 엉뚱한 추측을 하거나 환각(hallucination) 현상이 나타나기도 합니다.

RAG는 이러한 문제를 해결하기 위해 고안된 아키텍처입니다. 핵심 아이디어는 '필요한 정보를 미리 검색해서 답변에 참조한다'는 것이죠. 예를 들어, 어떤 질문에 답하기 위해 최신 뉴스를 알아야 한다면, LLM이 답변을 생성하기 전에 검색 엔진이나 데이터베이스에서 관련 정보를 검색(Retrieval) 단계에서 가져옵니다. 그리고 가져온 자료를 LLM의 프롬프트에 첨부하여 보다 정확하고 최신 정보에 기반한 답변을 생성합니다

이 방식의 장점은 LLM을 일일이 다시 훈련하지 않아도 된다는 점입니다. 모델이 모르던 새로운 정보를 그때그때 검색해서 쓰므로 항상 최신 정보를 반영할 수 있고, 잘 모르는 분야의 질문에도 신뢰할 만한 출처에 근거한 답변을 할 수 있습니다. 또한 환각을 줄이고 출처를 명시함으로써 답변의 신뢰도를 높일 수 있다는 보고도 있습니다. 다만 검색과정이 추가되므로 응답 시간이 느려질 수 있고, 외부 지식의 품질에 따라 성능이 좌우되는 한계도 있습니다.

AI 오케스트레이션: LangChain, LangGraph, AutoGen 프레임워크

에이전트의 등장은 다양한 오케스트레이션(Orchestration) 프레임워크의 발전으로 이어졌습니다. 간단히 말해, LLM을 중심으로 여러 도구와 정보를 연결하고 흐름을 관리하는 소프트웨어 프레임워크들인데요. 대표적으로 LangChain, LangGraph, AutoGen 등이 자주 거론됩니다. 이러한 프레임워크는 개발자가 일일이 모든 단계를 짜지 않아도 LLM과 메모리, 도구, 다중 에이전트 간의 상호작용을 쉽게 구성할 수 있도록 도와줍니다.

다중 에이전트 시스템과 프로토콜 (MAS, MCP, A2A 등)

두 개 이상의 에이전트가 팀을 이루어 일하는 것을 MAS(Multi-Agent System, 다중 에이전트 시스템)이라고 합니다. MAS에서는 각 에이전트가 자율적이지만 상호 협력하여, 개별 능력만으로는 어려운 크고 복잡한 문제를 함께 해결합니다

MCP (Model Context Protocol): MCP는 AI 모델이 외부 도구나 서비스와 컨텍스트를 주고받는 방식을 표준화합니다. 쉽게 말해 에이전트 ↔ 툴 연결의 약속된 규칙입니다. 기존에는 한 에이전트가 예를 들어 데이터베이스에 질의하려면, 각 DB마다 정해진 API 형태에 맞춰 별도 코드를 짜야 했습니다. MCP를 따르면 에이전트는 정해진 형식으로 invoke(tool_id, arguments, context) 같은 요청을 보내고, 툴은 표준화된 응답 구조로 답하게 됩니다. 이러한 표준 인터페이스를 통해 에이전트 개발자는 다양한 외부 도구를 손쉽게 통합할 수 있고, 에이전트들 간에 컨텍스트를 주고받는 것도 공통된 형식을 따르게 됩니다. 요약하면, MCP는 에이전트와 툴/데이터 사이의 소통 언어를 정해 줌으로써, 개발 생태계의 호환성과 재사용성을 높여주는 역할을 합니다.

A2A (Agent-to-Agent) 프로토콜: 에이전트 간 통신 표준입니다. 여러 회사나 오픈소스 프레임워크에서 각자 에이전트 시스템을 만들고 있는데, A2A는 서로 다른 출처의 에이전트들도 공통 언어로 대화하고 협업할 수 있게 해주는 개방형 프로토콜입니다.


지금까지 에이전트와 관련된 기본 개념들을 중심으로 살펴보았습니다.
에이전트는 이미 많은 기업들이 실제 서비스에 적용하며 활용 범위를 넓혀가고 있는 기술입니다.
이러한 기본 개념들을 알고 나면, 앞으로 등장할 AI 서비스들이 왜 ‘에이전트’라는 이름으로 설명되는지, 그리고 기존의 LLM과는 어떤 점에서 달라졌는지를 조금 더 쉽게 이해할 수 있을 것입니다.

profile
AI 😎

0개의 댓글