📢 转载信息
原文链接:https://www.wired.com/story/department-of-defense-responds-to-anthropic-lawsuit/
原文作者:Paresh Dave
特朗普政府周二在一份法院文件中辩称,它通过将AI开发商指定为供应链风险,并没有侵犯Anthropic的第一修正案权利,并预测该公司对政府提起的诉讼将失败。
“第一修正案不是单方面向政府施加合同条款的许可,Anthropic也未引用任何支持这种激进结论的依据,”美国司法部律师写道。
此回应是在旧金山一家联邦法院提交的。Anthropic正在两个地点挑战五角大楼将该公司定为可能因潜在安全漏洞而禁止企业获得国防合同的决定。Anthropic认为,特朗普政府在应用这一标签以及阻止该公司技术在国防部内部使用方面越权了。如果该认定成立,Anthropic今年预计将损失高达数十亿美元的收入。
Anthropic希望在诉讼解决之前恢复正常业务。负责旧金山案件的法官Rita Lin已安排下周二举行听证会,以决定是否批准Anthropic的请求。
司法部律师在周二的提交文件中代表国防部和其他机构撰写道,他们认为Anthropic对可能失去业务的担忧“在法律上不足以构成不可挽回的损害”,并呼吁Lin法官否决该公司的暂缓请求。
律师们还写道,特朗普政府采取行动的动机是“担心Anthropic在保留对政府技术系统的访问权限的情况下,未来可能发生的行为”。他们写道:“没有人声称限制了Anthropic的表达活动。”
政府认为,Anthropic试图限制五角大楼如何使用其AI技术的举动,导致国防部长Pete Hegseth“合理地”认定,“Anthropic员工可能会破坏、恶意引入不需要的功能,或以其他方式颠覆国家安全系统的设计、完整性或运行。”
国防部和Anthropic一直在就限制该公司Claude AI模型的潜在条款进行斗争。Anthropic认为,其模型不应被用来便利对美国人的广泛监控,并且目前不可靠到足以驱动完全自主的武器。
此前,多位法律专家告诉WIRED,Anthropic有充分的理由认为供应链措施构成了非法报复。但法院通常倾向于政府的国家安全论点,而五角大楼官员则将Anthropic描述为一个已经失控的承包商,其技术不可信。
“特别是,国防部担心允许Anthropic继续访问国防部的技术和作战战争系统基础设施,将给国防部供应链带来不可接受的风险,”周二的提交文件指出。“AI系统极易受到操纵,如果Anthropic自行决定认为其公司的‘红线’被跨越,它可能会在其技术被禁用,或者在其技术在正在进行的战争行动期间或之前,抢先改变其模型的行为。”
国防部和其他联邦机构正在努力在未来几个月内用竞争性科技公司的产品取代Anthropic的AI工具。据知情人士告诉WIRED,该军方对Claude的顶级用途之一是通过Palantir数据分析软件。
在周二的提交文件中,律师们辩称,五角大楼“在Anthropic目前是唯一获准使用的AI模型,并且高强度作战行动正在进行之际,不能简单地一键切换”。该部门正在努力部署来自Google、OpenAI和xAI的AI系统作为替代方案。
包括AI研究人员、微软、一个联邦雇员工会以及前军事领导人在内的许多公司和团体已提交法庭简报支持Anthropic。没有提交支持政府的简报。
Anthropic最晚将于周五提交对政府论点的反驳。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区