LM부터 GPT, MCP까지 : GPT는 어떻게 만들어졌고, 왜 MCP가 필요해졌을까?

지니씨·2026년 1월 28일

기타

목록 보기
25/25

1. GPT의 등장 배경

1-1. LM (Language Model)

  • 단어에 올 다음 단어(토큰)을 예측하는 모델
  • "오늘 날씨가" -> "좋다"를 확률적으로 계산하는 모델

1-2. Transformer의 등장

  • Google에서 번역 성능을 개선하기 위해 Transformer 구조를 제언한 논문(Attention Is All You Need (2017))을 발표
  • 이전까지는 문장을 순서대로 처리하는 RNN / LSTM 방식이 주를 이뤘지만, Transformer는 문장 전체를 한 번에 보고 관계를 계산
  • 개념적으로 y = f(x) 형태의 함수로 볼 수 있음

1-3. GPT (Generative Pre-trained Transformer)의 핵심 아이디어

  • OpenAI는 이 y = f(x)라는 함수에서, 모델(f)이 학습 과정에서 접하는 입력(x)의 규모를 극단적으로 키움
  • 번역만 잘하던 모델이 요약, 질문답변, 코드, 추론까지 전부 어느 정도 잘하는 모델이 됨
  • 즉, 특정 태스크용 모델이 아니라 일반적인 목적으로도 사용할 수 있는 "범용 모델"이 되어버림
  • GPT란 "일반적인 목적을 위한 Transformer"라는 의미

1-4. GPT와 LLM의 관계

  • GPT ⊂ LLM
  • LLM (Large Language Model) = 개념/분류 이름
  • GPT = LLM의 한 구현체(브랜드)
  • LLM의 구현체
    • GPT → OpenAI의 LLM
    • Gemini → Google의 LLM
    • Claude → Anthropic의 LLM
    • LLaMA → Meta의 LLM
    • 모두 Transformer 계열 (또는 그 변형), 컨텍스트 윈도우 기반 추론, 외부 세계를 직접 알고 있지는 않으므로 맥락 전달 방식이 중요함

2. MCP(Model Context Protocol)

2-1. MCP의 등장 배경

  • GPT는 “지금 입력된 것”밖에 알지 못함, 모든 정보를 프롬프트에 입력해야만 함
  • 즉, 이런 건 스스로 알 수 없음
    • 지금 우리가 작업 중인 프로젝트 구조
    • 열려 있는 Figma 시안
    • 팀에서 쓰는 디자인 규칙
    • 회사 내부 문서나 API
  • 이를 해결하기 위한 맥락 전달 규칙이 바로 MCP(Model Context Protocol)

2-2. MCP의 개념

  • MCP는 GPT에게 맥락을 전달하는 "정해진 방법"
  • MCP는 AI Agent가 외부 기능을 호출하기 위해 사용하는 표준
  • MCP client의 조건
    • LLM과 연결되어 있고
    • tool 호출 개념을 이해하며
    • MCP protocol(stdio / HTTP)을 구현해야 함
    • Figma는 디자인 툴 / 협업 툴, LLM orchestration 능력 X, tool 호출 개념 X

2-3. MCP의 필요성

  • GPT를 실제 업무에 활용하려면, 디자이너와 개발자가 사용하는 도구(Figma, 코드, 문서)와 자연스럽게 연결될 수 있어야 합니다.
    이를 위해서는 단순한 “똑똑한 챗봇”을 넘어 우리 팀의 맥락을 이해하는 작업 파트너가 필요하며, 그 기반이 되는 것이 바로 MCP와 같은 맥락 전달 규칙입니다.
profile
하루 모아 평생 🧚🏻

0개의 댓글