Auto Mode 출시 — Claude Code의 새 권한 모드. Classifier-based: 액션 실행 전 분류기가 위험 평가. Default (모든 액션 prompt) vs --dangerously-skip-permissions (위험) 사이의 "safer middle ground". False positive 0.4%, false negative 17% on 내부 트래픽. Sonnet 4.6 + Opus 4.6 지원. Team plan research preview, Enterprise + API 후속.
본문 인용:
"Claude Code's default permissions are purposefully conservative: every file write and bash command asks for approval. It's a safe default, but it means you can't kick off a large task and walk away."
(디폴트 = 보수적. 모든 파일 쓰기·bash 명령 = 승인 요청. 안전 but 큰 task 시작 후 자리 비울 수 X)
기존 옵션:
--dangerously-skip-permissions (YOLO mode): 모든 prompt 스킵 → 위험Anthropic 솔루션 — Auto Mode:
"Auto mode is a middle path that lets you run longer tasks with fewer interruptions while introducing less risk than skipping all permissions."
본문 인용:
"Before each tool call runs, a classifier reviews it to check for potentially destructive actions like mass deleting files, sensitive data exfiltration, or malicious code execution. Actions that the classifier deems as safe proceed automatically, and risky ones get blocked, redirecting Claude to take a different approach."
작동:
1. 각 tool call 전 classifier 평가
2. Safe: 자동 진행
3. Risky: 차단, 다른 접근 redirect
4. 반복 차단 시: 사용자에게 prompt
내부 작동 (engineering blog):
평가 데이터셋:
결과:
본문 강조 (engineering blog):
"Past examples include deleting remote git branches from a misinterpreted instruction, uploading an engineer's GitHub auth token to an internal compute cluster, and attempting migrations against a production database."
Anthropic 내부 사고:
각 사례 = 모델이 "의도보다 적극적".
본문 (Lasso 인용):
2 axis matrix:
Position:
본문 인용:
"Auto mode uses two layers of defense: one for what Claude reads, one for what Claude does."
Input 보안:
Output 보안:
본문 (Lasso 인용):
"Anthropic's data from their Claude Code auto mode post says it clearly - users approve 93% of permission prompts."
(사용자가 권한 prompt의 93% 승인)
이게 "approval fatigue" 의 정확한 측정:
이게 Auto Mode 출시의 정당화.
가장 충격적 데이터 — 사용자가 93% 승인.
이 숫자의 의미:
이게 "인간-in-the-loop 한계" 의 정확한 측정:
비교 — UAC (Windows User Account Control):
새 패턴 (Auto Mode):
데이터:
이 솔직성:
비교 — 전통 광고:
Anthropic:
이 "솔직 + 측정" 이 enterprise 신뢰 패턴 (#82, #95 글과 같은).
paddo.dev 인용 (커뮤니티 반응):
"Rocky asked the right follow-up: how does the classifier handle action chains where step 3 is only destructive in the context of steps 1 and 2?"
(액션 체인의 위험 = step 3은 step 1+2 컨텍스트에서만 파괴적)
이 nuance:
예시:
이게 "context-aware security" 의 도전. 미래 classifier 진화 영역.
paddo.dev 인용:
"Simon Willison's reaction was immediate and predictable for anyone who follows his work. He remains unconvinced by AI-based safety protections precisely because they're non-deterministic. His preferred alternative: OS-level sandboxing that restricts file access and network connections deterministically."
(Simon = AI 기반 보안 회의. 비결정적. OS 수준 sandboxing 선호)
비교 디자인:
각 트레이드오프:
이 "AI vs deterministic" 논쟁이 향후 보안 design의 거대 주제.
claudefa.st 인용:
"Between March 24 and April 16, 2026, Anthropic shipped Auto Mode to Team, rolled it out to Enterprise and API, dropped the beta flag, and opened access to Max users. No 'General Availability' post went up."
(GA 발표 X. 조용한 출시.)
이게 "silent expansion" 패턴:
비교:
각 회사의 다른 마케팅 전략. Anthropic = developer 신뢰 우선.
Auto Mode 가용성:
이게 정밀 segment:
비교 — 자동차:
Auto Mode도 같음. 사용자 성숙도별 자율성.
이 글이 보여주는 "approval fatigue" 패턴:
이 패턴이 보안 일반 적용:
각 "보안 강화" 가 사용자 fatigue → 결국 안전 ↓.
해결 (이 글):
이게 "AI = 보안 layer" 의 새 모델이다.
Lasso, Apono의 "Intent Security" :
이게 "AI agent 보안" 의 새 시장 segment:
비교:
향후 5년 거대 시장.
Simon Willison 선호:
OS Sandboxing 한계:
AI Classifier 우위:
각 layer 보완:
이 layered 디자인이 향후 표준.
Anthropic 디자인 철학:
1. Default: 보수적
2. Sandbox: 격리 (OS 수준)
3. Auto Mode: AI 결정
4. Skill (CLAUDE.md): 컨텍스트
각 layer:
이 다층이 "any size, any risk" 사용자 커버.
claudefa.st 인용:
"The classifier also receives your CLAUDE.md content, so project-specific instructions factor into its allow and block decisions."
(classifier가 CLAUDE.md도 받음. 프로젝트별 지시 = allow/block 결정)
이게 "customizable safety" :
비교 — 정적 firewall:
새:
이 글의 깊은 함의:
이게 "AI 진화의 진짜 측정" :
비교:
Auto Mode = "AI 성인기 진입" 시그널.
이 글은 "권한 모드 추가" 같지만, 실제로는 AI 시대 보안 패러다임의 새 정의다.
2026년 3월 24일 시점은 "AI 보안 = 인간이 모든 결정" 시대가 끝난 시점이다. AI 보안 = AI가 결정 + 인간이 진짜 위험에만 개입의 정착.
흥미로운 건 이 글이 #101 (Computer Use) 의 직접 후속이라는 점이다:
두 글 결합:
이게 "AI 직원" 의 정확한 그림:
비교 — 인간 직원 권한:
AI도 같은 진화. Auto Mode = AI mid-level 직원.
다음 글 (#103): CSV #15 — "Audit Claude Platform activity with the Compliance API" — Compliance API. 이 Auto Mode가 만드는 audit trail의 enterprise 거버넌스 layer. AI 자율 + 컴플라이언스의 결합이 보인다.