📢 转载信息
原文链接:https://techcrunch.com/2026/03/24/anthropic-hands-claude-code-more-control-but-keeps-it-on-a-leash/
原文作者:Rebecca Bellan
对于使用 AI 的开发者来说,目前的“代码氛围”要么是时刻看管 AI 的每一个操作,要么就是冒着让模型不受约束地运行的风险。Anthropic 表示,其 Claude 的最新更新旨在消除这种选择,让 AI 能够自行决定哪些操作是安全的 —— 但会受到一些限制。
此举反映了整个行业的一个更广泛的转变,越来越多的 AI 工具被设计成无需人工批准即可执行任务。挑战在于平衡速度与控制:过多的安全措施会减慢速度,而过少则可能导致系统变得危险且不可预测。Anthropic 新的“自动模式”(目前处于研究预览阶段,意味着可以进行测试但尚未成为最终产品)是其试图在这两者之间取得平衡的最新尝试。
自动模式利用 AI 安全措施在每个操作运行前进行审查,检查用户未请求的风险行为以及提示注入的迹象 —— 这是一种攻击,其中恶意指令隐藏在 AI 正在处理的内容中,导致其执行意外的操作。任何安全的操作都会自动进行,而有风险的操作则会被阻止。
这本质上是 Claude Code 现有“dangerously-skip-permissions”命令的扩展,该命令将所有决策权交给 AI,但在此之上增加了一个安全层。
该功能建立在 GitHub 和 OpenAI 等公司推出的自主编码工具浪潮之上,这些工具可以代表开发者执行任务。但它更进一步,将何时请求权限的决定权从用户转移到了 AI 本身。
Anthropic 尚未详细说明其安全层区分安全操作与风险操作的具体标准 —— 在广泛采用该功能之前,开发者可能会希望更好地了解这一点。(TechCrunch 已联系该公司以获取这方面更多信息。)
自动模式是 Anthropic 最近推出的一系列产品之一,包括其自动代码审查工具 Claude Code Review(用于在 AI 生成的代码进入代码库之前捕获 bug)以及 Dispatch for Cowork(允许用户将任务发送给 AI 代理代为处理工作)。
自动模式将在未来几天内向企业和 API 用户推出。该公司表示,目前它仅适用于 Claude Sonnet 4.6 和 Opus 4.6,并建议在新功能中使用“隔离环境”——即与生产系统分开的沙盒设置,以限制出现问题时可能造成的损害。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区