📢 转载信息
原文作者:James O'Donnell
2月28日,OpenAI宣布与美国军方达成一项协议,允许其技术在机密环境中使用。CEO Sam Altman表示,公司在五角大楼公开谴责Anthropic之后才开始进行的谈判,是“绝对仓促的”。
OpenAI在其声明中极力表示,并未屈服于允许五角大楼随意使用其技术的条件。该公司发布了一篇博文,解释说该协议能够防止技术被用于自主武器和大规模国内监控。Altman也表示,公司并未简单接受Anthropic所拒绝的相同条款。
你可以将此解读为OpenAI既赢得了合同又赢得了道德高地,但细读之下,真相更为清晰:Anthropic采取了赢得诸多支持者的道德立场,但最终失败了;而OpenAI则采取了务实的法律途径,在对五角大楼的要求上显得更为宽松。
目前尚不清楚OpenAI能否在其承诺的安全措施到位的情况下,满足军方在对伊朗进行打击期间迅速推出政治化AI战略的需求,也不知道该协议是否能被那些希望公司采取更强硬立场的员工所接受。走在这条钢丝上将充满挑战。(OpenAI未立即回应有关其协议的额外信息请求。)
但细节中藏着魔鬼。Altman表示,OpenAI能够达成协议而Anthropic不能,其原因并非关于界限,而是关于方法。“Anthropic似乎更关注合同中的具体禁令,而不是引用适用的法律,而我们对后者感到满意,”他写道。
OpenAI表示,其愿意与五角大楼合作的一个依据仅仅是假设政府不会违法。该公司分享了其合同的有限摘录,其中引用了多项关于自主武器和监控的法律及政策。这些法律政策既有具体的,例如五角大楼在2023年发布的关于自主武器的指令(该指令并未禁止自主武器,但对设计和测试提出了指导方针),也有宽泛的,如支持美国公民免受大规模监控的第四修正案。
然而,乔治华盛顿大学法学院政府采购法研究副院长Jessica Tillipman写道:“发布的摘录‘并未赋予OpenAI类似Anthropic那样的、独立禁止政府合法使用的权利’。它只是规定五角大楼不能使用OpenAI的技术来违反当前陈述的任何法律和政策。”
Anthropic在斗争中赢得如此多支持者的原因——包括一些OpenAI自己的员工——是他们认为这些规则不足以阻止AI驱动的自主武器或大规模监控的产生。而对于那些还记得爱德华·斯诺登揭露的监控行为曾被内部机构视为合法,直到漫长的斗争后才被裁定为非法(更不用说目前法律允许的许多可能被AI扩大的监控策略)的人来说,假设联邦机构不会违法并不能提供多少保证。在这方面,我们基本上回到了原点:允许五角大楼将其AI用于任何合法用途。
OpenAI可能会像其国家安全合作主管昨天写的那样,如果认为政府不会遵守法律,那么也不应该对其遵守Anthropic提出的红线抱有信心。但这并不是反对设定红线的论据。不完美的执行并不意味着约束毫无意义,合同条款仍然会影响行为、监督和政治后果。
OpenAI声称还有第二道防线。该公司表示,它保留对模型安全规则的控制权,并且不会向军方提供未经安全控制的版本。“我们可以将我们的红线——即不进行大规模监控,以及不未经人类参与指挥武器系统——直接嵌入模型行为中,”Altman指派负责此事的OpenAI员工Boaz Barak在X上写道。
但该公司并未明确说明其对军方的安全规则与对普通用户的规则有何不同。而且,执行永远不可能完美,特别是考虑到OpenAI将在机密环境中首次部署这些保护措施,并且预计在短短六个月内完成。
这一切之下还有一个问题:科技公司是否有责任禁止那些合法但它们认为在道德上可疑的行为?政府无疑认为Anthropic扮演这一角色是不可接受的。周五晚上,在美国发动对伊朗的袭击前八小时,国防部长Pete Hegseth在X上发表了严厉的言论。“Anthropic上演了一场关于傲慢和背叛的盛大演出,”他写道,并呼应了特朗普总统下令政府停止与Anthropic合作的命令,因为Anthropic试图阻止其模型Claude被用于自主武器或大规模国内监控。“战争部必须拥有对Anthropic模型的所有合法用途的完全、不受限制的访问权限,”Hegseth写道。
但除非OpenAI的完整合同能揭示更多信息,否则很难不认为该公司正处于意识形态的跷跷板上,承诺它确实拥有它将引以为傲地用来做正确事情的议价能力,同时又将法律作为五角大楼利用其技术的主要后盾。
这里有三点值得关注。第一,这种立场是否足以让OpenAI最挑剔的员工满意。随着AI公司在人才上投入巨资,OpenAI的一些员工可能会认为Altman的辩解是一种不可原谅的妥协。
其次,Hegseth承诺对Anthropic进行一场“焦土运动”。他不仅取消了政府与该公司的合同,还宣布将将其列为供应链风险,并且“任何与美国军方有商业往来的承包商、供应商或合作伙伴,不得与Anthropic进行任何商业活动”。关于这一“死亡之吻”是否在法律上可行存在重大争议,Anthropic也表示如果该威胁被执行,将提起诉讼。OpenAI也反对此举。
最后,在五角大楼升级对伊朗的打击行动时,它将如何替换Claude——这是五角大楼唯一积极在机密行动中使用的AI模型,包括在委内瑞拉的一些行动?Hegseth给了该部门六个月的时间来完成这一目标,在此期间,军方将逐步引入Elon Musk的xAI公司的模型,以及OpenAI的模型。
但据报道,Claude在禁令发布数小时后就被用于对伊朗的打击行动,这表明逐步淘汰并非易事。即使Anthropic与五角大楼之间长达数月的争执已经结束(我对此表示怀疑),我们现在看到五角大楼的AI加速计划正迫使公司放弃它们曾经划定的界限,而中东地区的新紧张局势则成为了主要的试验场。
如果您有关于此事进展的信息,请通过Signal(用户名:jamesodonnell.22)与我联系。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区