LM부터 GPT, MCP까지 : GPT는 어떻게 만들어졌고, 왜 MCP가 필요해졌을까?
1. GPT의 등장 배경
1-1. LM (Language Model)
- 단어에 올 다음 단어(토큰)을 예측하는 모델
- "오늘 날씨가" -> "좋다"를 확률적으로 계산하는 모델
- Google에서 번역 성능을 개선하기 위해 Transformer 구조를 제언한 논문(Attention Is All You Need (2017))을 발표
- 이전까지는 문장을 순서대로 처리하는 RNN / LSTM 방식이 주를 이뤘지만, Transformer는 문장 전체를 한 번에 보고 관계를 계산
- 개념적으로
y = f(x) 형태의 함수로 볼 수 있음
- OpenAI는 이 y = f(x)라는 함수에서, 모델(f)이 학습 과정에서 접하는 입력(x)의 규모를 극단적으로 키움
- 번역만 잘하던 모델이 요약, 질문답변, 코드, 추론까지 전부 어느 정도 잘하는 모델이 됨
- 즉, 특정 태스크용 모델이 아니라 일반적인 목적으로도 사용할 수 있는 "범용 모델"이 되어버림
- GPT란 "일반적인 목적을 위한 Transformer"라는 의미
1-4. GPT와 LLM의 관계
- GPT ⊂ LLM
- LLM (Large Language Model) = 개념/분류 이름
- GPT = LLM의 한 구현체(브랜드)
- LLM의 구현체
- GPT → OpenAI의 LLM
- Gemini → Google의 LLM
- Claude → Anthropic의 LLM
- LLaMA → Meta의 LLM
- 모두 Transformer 계열 (또는 그 변형), 컨텍스트 윈도우 기반 추론, 외부 세계를 직접 알고 있지는 않으므로 맥락 전달 방식이 중요함
2. MCP(Model Context Protocol)
2-1. MCP의 등장 배경
- GPT는 “지금 입력된 것”밖에 알지 못함, 모든 정보를 프롬프트에 입력해야만 함
- 즉, 이런 건 스스로 알 수 없음
- 지금 우리가 작업 중인 프로젝트 구조
- 열려 있는 Figma 시안
- 팀에서 쓰는 디자인 규칙
- 회사 내부 문서나 API
- 이를 해결하기 위한 맥락 전달 규칙이 바로 MCP(Model Context Protocol)
2-2. MCP의 개념
- MCP는 GPT에게 맥락을 전달하는 "정해진 방법"
- MCP는 AI Agent가 외부 기능을 호출하기 위해 사용하는 표준
- MCP client의 조건
- LLM과 연결되어 있고
- tool 호출 개념을 이해하며
- MCP protocol(stdio / HTTP)을 구현해야 함
- Figma는 디자인 툴 / 협업 툴, LLM orchestration 능력 X, tool 호출 개념 X
2-3. MCP의 필요성
- GPT를 실제 업무에 활용하려면, 디자이너와 개발자가 사용하는 도구(Figma, 코드, 문서)와 자연스럽게 연결될 수 있어야 합니다.
이를 위해서는 단순한 “똑똑한 챗봇”을 넘어 우리 팀의 맥락을 이해하는 작업 파트너가 필요하며, 그 기반이 되는 것이 바로 MCP와 같은 맥락 전달 규칙입니다.