Claude Code가 샌드박스 기반 구조로 진화했다. 매번 묻는 권한 프롬프트 대신 OS 수준 격리로 더 자율적이면서 더 안전하게 작동. 사내 측정 결과 권한 프롬프트 84% 감소.
Bash 도구 샌드박스 (CLI 안에서 작동)
Claude Code on the Web (클라우드 격리 샌드박스)
파일시스템 격리:
네트워크 격리:
anthropic-experimental/sandbox-runtime (Apache 2)기존 모델:
Anthropic 데이터:
# 새 sandboxing 활성화
/sandbox
# Claude Code on the web (별도 출시)
# GitHub 리포 → 환경 선택 → 프롬프트
비동기 코딩 에이전트 — 클라우드에서 실행:
* (전체)이 글의 핵심 데이터 — 사용자가 권한 프롬프트의 93%를 승인.
이건 단순 통계가 아니라 권한 시스템의 무용성 입증이다. 사용자가 거의 모든 걸 승인한다는 건:
이 데이터가 의미하는 것: 현재의 권한 모델은 깨졌다. "매번 묻는다" 가 안전을 보장하지 않는다 — 결국 인간이 적당히 "yes" 클릭하기 때문.
이 솔직한 인정이 Anthropic의 일관된 패턴이다 — "23.6% 공격 성공률" (Chrome pilot, #36 글), "AI 생산성 예측을 절반으로 낮췄다" (#37 글) — 부정적 데이터를 공개하는 게 신뢰의 토대.
이 글의 진짜 통찰:
"By defining set boundaries within which Claude can work freely, they increase security AND agency."
번역: "Claude가 자유롭게 작동할 경계를 정의함으로써, 보안과 능동성을 동시에 올린다."
이게 패러독스 같지만 사실이다. 비유:
공원 vs 끝없는 황야:
Claude Code 권한 모델:
이 통찰이 에이전트 보안의 일반 원칙으로 자리잡았다. Anthropic의 다른 제품들도 같은 패턴 적용:
샌드박스를 OS primitives 위에 구축한 게 핵심이다.
기존 "애플리케이션 수준 권한 체크":
새로운 "OS 수준 격리":
이 신뢰 모델 차이가 결정적이다.
엔터프라이즈가 진지한 도구 도입하려면 trust the OS 모델이 필수다. 이 글이 그 인프라를 공식화.
#36 글에서 다룬 lethal trifecta:
1. Untrusted content access
2. Sensitive data access
3. Action capabilities
샌드박스가 어떻게 이걸 푸는가?
즉 sandbox는 "공격이 들어와도 영향이 격리됨". SSH 키, AWS 자격증명, .env 파일이 읽혀도 외부로 못 나감.
이 모델이 "defense in depth" 의 좋은 예다. 모델 자체의 prompt injection 저항을 강화하는 것 (어렵고 불완전) 보다, 공격 영향을 격리 (쉽고 보장됨).
같은 글에 "파묻힌" (Simon Willison 표현) 큰 출시 — Claude Code on the Web.
이 제품의 의미:
이게 AI 개발의 작업 모델 변화를 보여준다.
이 변화에서 Claude Code on the Web이 결정적 단계다. 사용자가 노트북 닫고 잠자는 동안에도 AI가 GitHub 리포에서 일한다.
Simon Willison의 코멘트:
"Anthropic are getting really good at containers these days."
이게 흥미로운 관찰이다. Anthropic의 인프라 진화:
각 제품마다 격리 컨테이너를 운영. Anthropic이 사실상 컨테이너 인프라 회사가 됐다.
이 인프라 역량이 다른 AI 회사와 차별점이다. OpenAI는 ChatGPT 안에서 모든 게 일어나는 단일 인터페이스. Anthropic은 다양한 환경에 격리 인스턴스를 띄운다. 이 차이가 enterprise 도입에서 결정적이다.
샌드박스 구현체를 Apache 2 오픈소스로 공개:
github.com/anthropic-experimental/sandbox-runtime
왜 오픈소스인가?
이 패턴은 Anthropic의 MCP, Skills, Security Review GitHub Action 오픈소스 전략과 일관된다.
전략적 베팅: "우리가 표준을 정의하면 우리가 표준 위에서 가장 잘 작동한다." MCP가 이 베팅이 검증된 가장 큰 사례.
이 글은 권한 프롬프트의 시대를 종료시키는 선언이다.
2025년 10월 20일은 "AI 에이전트가 진지한 보안 모델을 갖춘 날" 이다. 이전엔 "AI가 위험한 짓 할 수 있어요, 매번 확인하세요" 였다. 이후엔 "AI에게 격리된 작업장을 줍니다, 그 안에서 자유롭게 일합니다" 다.
이 변화가 Claude Code의 enterprise 도입을 가속했다. CIO에게 "AI가 통제됩니다" 가 "매번 승인하세요" 보다 훨씬 설득력 있다. 같은 시기 발표된 Compliance API, Claude in Slack과 함께 이 글이 enterprise readiness의 마지막 퍼즐을 맞췄다.