目 录CONTENT

文章目录

Anthropic 否认能在战争期间破坏 AI 工具

Administrator
2026-03-22 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/anthropic-denies-sabotage-ai-tools-war-claude/

原文作者:Paresh Dave


Anthropic 公司无法在其生成式 AI 模型 Claude 一旦被美国军方部署运行后对其进行操控,该公司一位高管在上周五提交的一份法庭文件中写道。此番表态是为了回应特朗普政府关于该公司可能在战争期间篡改其 AI 工具的指控。

“Anthropic 从未有过能力导致 Claude 停止工作、改变其功能、关闭访问权限,或以其他方式影响或危及军事行动,” Thiyagu Ramasamy,Anthropic 的公共部门负责人,写道。“Anthropic 没有必要权限来禁用该技术或在正在进行的行动之前或期间改变模型的行为。”

五角大楼与这家领先的 AI 实验室在如何将这项技术用于国家安全——以及其使用限制——方面已经争论了数月。本月,国防部长 Pete Hegseth 将 Anthropic 标记为供应链风险,这一 designation 将阻止国防部在未来几个月内使用该公司的软件,包括通过承包商。其他联邦机构也在放弃 Claude。

Anthropic 提起了两起诉讼,质疑禁令的合宪性,并寻求紧急命令来撤销它。然而,客户已经开始取消交易。其中一个案件的听证会定于 3 月 24 日在旧金山的联邦地区法院举行。法官可能会很快就临时撤销禁令做出裁决。

在本周早些时候的一份文件中,政府律师写道,国防部“不必容忍在国防和现役军事行动的关键时刻,关键军事系统遭受威胁的风险。”

据 WIRED 报道,五角大楼一直在使用 Claude 来分析数据、撰写备忘录以及帮助生成作战计划。政府的论点是,如果 Anthropic 不同意某些用途,它可以通过关闭 Claude 的访问权限或推送有害更新来扰乱现有的军事行动。

Ramasamy 否定了这种可能性。“Anthropic 不维护任何后门或远程‘紧急停止开关’,”他写道。“Anthropic 的员工不能,例如,在行动期间登录 DoW 系统来修改或禁用模型;这项技术根本不是那样工作的。”

他接着说,Anthropic 只能在获得政府及其云服务提供商(在本例中为 Amazon Web Services)的批准后才能提供更新,尽管他没有明确提及名称。Ramasamy 补充说,Anthropic 无法访问军事用户在 Claude 中输入的提示或其他数据。

Anthropic 的高管们在法庭文件中坚称,该公司不希望对军事战术决策拥有否决权。Sarah Heck,政策主管,在周五提交的一份法庭文件中写道,Anthropic 愿意在 3 月 4 日提出的合同中对此作出保证。“为免疑义,[Anthropic] 理解本许可不授予或赋予任何控制或否决合法战争部作战决策的权利,” 该提案的陈述指出,文件引用了五角大楼的一个别称。

Heck 声称,该公司也准备接受能解决其对 Claude 被用于在无人监督的情况下执行致命打击的担忧的语言。但谈判最终破裂。

目前,国防部在法庭文件中表示,它“正在采取额外措施来减轻该公司构成的供应链风险”,方法是“与第三方云服务提供商合作,以确保 Anthropic 的领导层无法对当前部署的 Claude 系统进行单方面更改”。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区