目 录CONTENT

文章目录

Anthropic 起诉国防部,就供应链风险认定展开法律诉讼

Administrator
2026-03-10 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/anthropic-sues-department-of-defense-over-supply-chain-risk-designation/

原文作者:Paresh Dave


Anthropic 于周一对美国国防部及其他联邦机构提起了联邦诉讼,挑战其将该公司定为“供应链风险”的决定。

五角大楼于上周正式制裁了 Anthropic,结束了数周来公开争论的关于限制其生成式 AI 技术在军事应用(如自主武器)中的使用的争议。

“我们不认为此举在法律上是站得住脚的,我们别无选择,只能在法庭上提出挑战,”Anthropic 首席执行官 Dario Amodei 在周四的博客文章中写道。

诉讼在加州联邦法院提起,要求法官撤销该认定,并阻止联邦机构执行该认定。“宪法不允许政府滥用其巨大的权力来惩罚一家公司发表受保护的言论,”Anthropic 在文件中表示。“Anthropic 最后诉诸司法,以维护其权利并阻止行政部门无理的报复行动。”

开发 Claude 系列 AI 模型的人工智能初创公司 Anthropic,面临着损失来自五角大楼和美国其他政府部门数亿美元年收入的可能性。它还可能失去将 Claude 集成到他们出售给联邦机构的服务中的软件公司的业务。据报道,几家 Anthropic 的客户已表示,由于国防部的风险认定,他们正在寻求替代方案。

Amodei 撰文称,“绝大多数”Anthropic 的客户无需进行更改。他表示,美国政府的认定“显然仅适用于客户将 Claude 作为合同直接组成部分用于”军事用途。军事承包商对 Anthropic 技术的普遍使用应该不会受到影响。

国防部(也称为陆军部)和白宫尚未立即回应有关 Anthropic 诉讼的置评请求。

拥有政府承包专业知识的律师表示,Anthropic 在法庭上将面临一场艰难的战斗。授权国防部将一家科技公司标记为供应链风险的规则并不允许多少申诉的空间。“政府有百分之百的权力来设定合同的参数,”律师事务所 Snell & Wilmer 的合伙人 Brett Johnson 说。他还表示,五角大楼也有权表示,如果某个受关注的产品被其任何供应商使用,“会损害政府履行其使命的能力”。

Johnson 表示,Anthropic 在法庭上最有可能成功的机会是证明自己是被区别对待的。在国防部长 Pete Hegseth 宣布将 Anthropic 列为供应链风险后不久,竞争对手 OpenAI 就宣布已与五角大楼达成了一项新合同。如果 Anthropic 能够证明它正在寻求与 ChatGPT 开发商类似的条款,这可能对其法律论证至关重要。

OpenAI 表示,其协议包括合同和技术保障措施,以确保其技术不会被用于大规模国内监控或指挥自主武器系统。该公司补充说,它反对针对 Anthropic 的行动,并且不知道其竞争对手为何未能与政府达成相同的协议。

军事优先

Hegseth 已将军事采用 AI 技术作为优先事项,最近在五角大楼张贴的海报中,他正指向前方,并写着:“我希望你们使用 AI。” 与 Anthropic 的争端始于一月份,当时 Hegseth 命令几家 AI 供应商同意,部门可以使用他们的技术用于任何合法目的。

Anthropic 是目前唯一为军方最敏感用例提供 AI 聊天机器人和分析工具的公司,它进行了反击。该公司认为,其技术目前尚未成熟到可以用于大规模国内监控美国人或完全自主的武器。Hegseth曾表示,Anthropic 希望对本应由国防部做出的判断拥有否决权。

历史上,供应链风险认定一直用于阻止中国技术进入美国军事系统以维护作战安全。Anthropic 最近警告说,将该标签用于一家美国公司“设定了一个危险的先例”。

上周,包括 TechNet、Business Software Alliance 和 Software Information Industry Association 在内的多个科技行业团体,敦促特朗普政府重新考虑这一认定,并在信中表示,将一家美国公司视为对手而不是资产,将对美国创新产生寒蝉效应。这些团体代表了包括苹果、谷歌、英伟达、微软、Meta、IBM、Salesforce 和 Oracle 在内的主要科技公司。

另一批知名科技人士和前国家安全顾问向参议院军事委员会成员发送了一封类似的信函,警告说“对一家美国国内公司使用此项权力,是对其预期用途的严重偏离”。信中要求国会就 AI 用于国内监控和自主致命武器系统制定明确的政策。

签署人包括前 CIA 局长 Michael Hayden、哈佛法学院教授 Lawrence Lessig、前 Andreessen Horowitz 合伙人 John O’Farrell、前陆军部副部长 Brad Carson,以及几位前任或退役海军上将。

据了解情况的人士告诉 WIRED,美国军方官员主要通过集成 Anthropic 的独立工具来使用 Claude,包括Palantir 的 Maven Smart System。知情人士表示,他们用它来完成基本任务,如撰写文档,以及进行更重要的分析,如制定攻击计划。

如果供应链风险认定得以维持,Palantir 和其他军事承包商将不得不更换 Claude,这可能会增加政府的成本。近几天,像 Vannevar Labs 这样专注于国防用途的几家 AI 初创公司一直在推销它们能够替代 Claude 的模型。Palantir 未回应置评请求。

军事以外的几个政府机构表示,他们将停止使用 Claude,以遵守总统唐纳德·特朗普上周发布的一项指令。

微软发言人 Kate Frischmann 表示,这家科技巨头将继续向美国机构和企业提供 Claude,但国防部除外。

OpenAI 没有具体说明其技术何时准备好取代军用软件中的 Claude。Hegseth 表示,淘汰 Anthropic 的服务可能需要长达六个月的时间。周四,Amodei 写道,他与五角大楼的“富有成效的对话”正在进行中,以解决争端,无论如何,公司将“在允许的范围内”支持该部门。

Lauren Goode 参与了报道。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区