目 录CONTENT

文章目录

Anthropic 反驳五角大楼的说法:双方在特朗普宣布关系破裂一周后“几乎达成一致”

Administrator
2026-03-22 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://techcrunch.com/2026/03/20/new-court-filing-reveals-pentagon-told-anthropic-the-two-sides-were-nearly-aligned-a-week-after-trump-declared-the-relationship-kaput/

原文作者:Connie Loizos


Anthropic 周五下午向加州联邦法院提交了两份宣誓声明,反驳五角大楼关于其 AI 公司构成“不可接受的国家安全风险”的说法,并辩称政府的案件依赖于技术上的误解以及在争议发生前数月的谈判中从未提出过的指控。

这些声明是 Anthropic 在起诉国防部的答辩状中提交的,并将于本周二(3月24日)在旧金山由法官 Rita Lin 主持听证会。此次争议的起因可以追溯到2月下旬,当时特朗普总统和国防部长 Pete Hegseth 公开宣布与 Anthropic 断绝关系,原因是该公司拒绝允许对其 AI 技术进行不受限制的军事使用。

提交声明的两位人士是 Anthropic 的政策主管 Sarah Heck 和公共部门主管 Thiyagu Ramasamy。

Heck 曾是国家安全委员会的官员,在奥巴马政府时期曾在白宫任职,之后转投 Stripe,最后加入 Anthropic,负责公司与政府的关系和政策工作。她亲自出席了2月24日 CEO Dario Amodei 与国防部长 Hegseth 和五角大楼副部长 Emil Michael 的会晤。

在她的 声明 中,Heck 指出了她所描述的政府文件中的一个核心虚假陈述:即 Anthropic 要求在军事行动中拥有某种批准权。她表示,这种说法根本不属实。“在 Anthropic 与国防部的谈判过程中,我或任何其他 Anthropic 员工从未表示公司希望扮演这种角色,”她写道。

她还声称,五角大楼关于 Anthropic 可能在行动中禁用或更改其技术的担忧,从未在谈判中被提及。相反,她说,这些担忧首次出现在政府的法庭文件中,这使得 Anthropic 根本没有机会回应。

Heck 声明中另一个肯定会引起关注的细节是,3月4日——即五角大楼正式确定对 Anthropic 的供应链风险认定一天后——副部长 Michael 给 Amodei 发了邮件,称双方在政府现在引用的两个问题上“非常接近”达成一致,这两个问题被认为是 Anthropic 构成国家安全威胁的证据:即在自主武器和美国公民大规模监控问题上的立场。

Heck 将这封邮件作为证据附在她的声明中,这封邮件值得与 Michael 在随后几天公开的言论一起阅读。3月5日,Amodei 发表声明称,公司与五角大楼进行了“富有成效的对话”。次日,Michael 在 X(原 Twitter)上发帖称,“国防部与 Anthropic 之间没有积极的谈判。” 一周后,他告诉 CNBC,“没有可能”恢复谈判。

Heck 的观点似乎是:如果 Anthropic 在这两个问题上的立场是其构成国家安全威胁的原因,那么为什么五角大楼自己的官员在认定书最终确定后不久就表示双方在这些问题上几乎达成了一致?(她没有直接声称政府利用该认定作为谈判筹码,但她陈述的时间线留下了这个疑问。)

Ramasamy 为此案带来了不同的专业知识。在2025年加入 Anthropic 之前,他在亚马逊网络服务公司(AWS)工作了六年,负责为包括机密环境在内的政府客户管理 AI 部署。在 Anthropic,他被认为组建了将 Claude 模型引入国家安全和国防领域的团队,其中包括去年夏天宣布的与五角大楼达成的 2亿美元合同

他的 声明 驳斥了政府关于 Anthropic 理论上可以通过禁用技术或以其他方式改变其行为来干扰军事行动的说法,Ramasamy 表示这在技术上是不可能的。据他介绍,一旦 Claude 被部署在第三方承包商运营的政府安全、“隔离”(air-gapped)系统中,Anthropic 就无法访问它;没有远程禁用开关,没有后门,也没有推送未经授权更新的机制。他认为,任何形式的“操作否决权”都是虚构的,并解释说,模型更改需要五角大楼明确的批准和安装操作。

他说,Anthropic 甚至无法看到政府用户在系统中输入的内容,更不用说提取这些数据了。

Ramasamy 还反驳了政府关于 Anthropic 雇佣外国国民使其成为安全风险的说法。他指出,Anthropic 的员工已经通过了美国政府的安全许可审查——这是访问机密信息所需的相同背景调查过程——并在他的声明中补充说,“据我所知”,Anthropic 是唯一一家由获得安全许可的人员实际构建设计用于机密环境的 AI 模型的 AI 公司。

Anthropic 的诉讼认为,供应链风险认定——这是美国公司首次遭受此类认定——构成了政府对其公司公开声明的 AI 安全观点的报复,违反了第一修正案。

政府在本周早些时候提交的一份40页的文件中,完全否认了这种说法,称 Anthropic 拒绝允许对其技术进行所有合法军事用途是一项商业决定,而非受保护的言论,并且该认定是一个直接的国家安全决定,而非对公司观点的惩罚。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区