1M token context window가 Claude Opus 4.6, Sonnet 4.6에 GA (Generally Available). Long-context premium 없음 — 9K 요청과 900K 요청 같은 per-token 가격. MRCR v2 1M variant 점수: Opus 4.6 78.3%, Gemini 3 Pro 대비 ~3×, 이전 Claude 대비 ~4×. Claude Code Max/Team/Enterprise 디폴트 Opus, Pro/Sonnet은 /extra-usage opt-in.
본문 인용 (Joe Njenga, Medium):
"There's no long-context premium. A 900K-token request costs the same per-token rate as a 9K one. For Opus 4.6, you're looking at $5 input and $25 output per million tokens. Sonnet 4.6 comes in at $3 input and $15 output per million tokens. Standard pricing across the full window."
이전:
이제:
본문 강조 (kara0zieminski):
"Claude Opus 4.6 scores nearly 3x higher than Gemini 3 Pro and over 4x higher than the previous best Claude model. Opus 4.6 finds roughly 4x more facts than the previous best Claude. And 3x more than Gemini at the same context length."
| 모델 | 1M MRCR v2 점수 |
|---|---|
| Opus 4.6 | 78.3% |
| Sonnet 4.5 (이전) | 18.5% |
| Gemini 3 Pro | ~25% |
| 다른 Claude | ~20% |
이게 "context rot" 의 정량 측정:
본문 (Dev.to):
Boris Cherny (Claude Code 책임자):
"Opus 4.6 1M is now the default Opus model for Claude Code users on Max, Team, and Enterprise plans. Pro and Sonnet users can opt in with /extra-usage."
(Max/Team/Enterprise = 자동, Pro/Sonnet = /extra-usage opt-in)
자동 활성화:
CLAUDE_CODE_AUTO_COMPACT_WINDOW 환경 변수:
본문 (Dev.to)이 식별:
본문 (kara0zieminski):
이 글의 가장 중요한 변화 — 가격 모델 단순화.
이전 가격:
새 가격:
비교 — 다른 회사:
이게 가격 전쟁 시그널:
Opus 4.6 출시 (#85) 글에서 언급:
이 글의 의미:
비교 — Gemini 1M (오랫동안 가능):
Anthropic 차별:
이 "big window + accuracy" 가 실제 가치.
Dev.to 인용:
"AI-native startups who want to simplify their architecture by reducing dependence on complex RAG pipelines."
(RAG 파이프라인 의존도 줄이려는 startup)
전통 architecture:
새 architecture:
RAG의 한계:
Long context의 우위:
비교:
이 변화가 AI architecture의 단순화 가속이다.
비용 분석:
이게 "experiment vs production" 분리:
해결:
이 "비용 인지" 가 production AI engineer의 새 스킬:
타임라인:
각 ~5-6주 간격. Anthropic 출시 cadence = 가속.
비교:
이 cadence가 mindshare 전쟁의 정확한 동력:
본문 강조 — 첫 use case가 거대 codebase:
이게 "coding-first" 시장 전략:
비교 — 다른 모델:
이 "개발자 우선" 이 "developer mindshare = 시장 점령" 의 정석.
Plan별 1M 액세스:
/extra-usage)이게 price discrimination의 정확한 사례:
비교 — Gemini:
Anthropic 더 fluid:
Boris Cherny 인용:
"Great for: analyzing an entire Premier League season in one shot, processing a full codebase."
(Premier League 시즌 전체, 전체 codebase = 1M 적합)
흥미로운 use case들:
각 use case가 "이전 불가능" → "이제 가능".
이게 AI 활용 영역 확장의 시그널이다. 작업 자체가 "가능" 영역으로 진입.
HN 댓글:
"Context pollution is real. Curate what goes in. ... Loading it with every MCP endpoint and skill you have? That's noise, not leverage. More options = harder decisions for the model. It still has to pick what to use and when."
(Context pollution은 실제. 들어가는 것 큐레이트. 모든 MCP endpoint + skill 로드 = noise. 더 많은 옵션 = 모델 결정 어려움)
이 nuance가 "big context = always better" 신화 깨기:
향후 best practice:
kara0zieminski 인용:
"The 78.3% figure comes from Anthropic's own announcement. Independent verification is still pending."
(78.3%는 Anthropic 자체 발표. 독립 검증 pending)
이게 "enterprise 결정의 정직 평가" :
비교 — 다른 산업:
AI 산업의 도전:
이 "trust but verify" 가 AI 시대 일하기 방식.
이 글은 "context window 확장" 같지만, 실제로는 AI architecture의 본질 변화다.
2026년 3월 13일 시점은 "AI = 작은 chunk 기반" 시대가 끝난 시점이다. AI = whole document/codebase의 정착.
흥미로운 건 이 변화가 AI engineer 직무 변화 라는 점이다:
비교:
각 wave가 새 기술 스택. 직업 시장 가속 변화.
다음 글 (#99): CSV #19 — Code with Claude San Francisco/London/Tokyo. AI 개발자 글로벌 컨퍼런스. 1M context 같은 능력 + 글로벌 커뮤니티. AI 시대 "Web Summit" 형성이 보인다.