📢 转载信息
原文链接:https://www.wired.com/story/backchannel-anthropic-dispute-with-the-pentagon/
原文作者:Steven Levy
AI安全遭遇战争机器
去年,当Anthropic成为美国政府批准首批可用于机密用途(包括军事应用)的主要AI公司之一时,这则消息并未引起太大轰动。但本周,第二条动态如炮弹般袭来:五角大楼正在重新考虑与该公司的关系,其中包括一份价值2亿美元的合同,表面上的原因是这家注重安全的AI公司反对参与某些致命行动。这个所谓的“战争部”甚至可能将Anthropic指定为“供应链风险”,这是通常只保留给与受联邦机构严格审查的国家(如中国)有业务往来的公司的“恶名”,这意味着五角大楼将不会与那些在其国防工作中使用了Anthropic AI的公司进行业务往来。五角大楼首席发言人肖恩·帕内尔在给WIRED的一份声明中证实,Anthropic正处于风口浪尖。“我们国家要求我们的合作伙伴必须愿意帮助我们的作战人员在任何战斗中取得胜利。归根结底,这关乎我们的士兵和美国人民的安全,”他说。这对其他公司也是一个警示:OpenAI、xAI 和 Google 目前拥有五角大楼的非机密工作合同,它们正在努力通过必要的考验以获得自己的高级许可。
这里有很多值得深究的地方。首先,是否存在一种情况是Anthropic因为抱怨其AI模型Claude被用于推翻委内瑞拉总统尼古拉斯·马杜罗的行动(据报道如此;该公司否认了这一点)而受到惩罚?此外,Anthropic公开支持AI监管——这是业内的一个异类立场,也与政府的政策相悖。但更深层次、更令人不安的问题在于:政府对军事用途的要求是否会让AI本身变得不安全?
研究人员和高管们认为,AI是人类有史以来最强大的技术。目前几乎所有AI公司成立的初衷都是基于这样一个前提:即有可能在防止广泛伤害的前提下实现通用人工智能(AGI),或超级智能。xAI的创始人埃隆·马斯克曾是控制AI的最大倡导者之一——他联合创立OpenAI就是因为担心这项技术对于逐利公司来说过于危险。
Anthropic将自己定位为最注重安全的公司。该公司的使命是将其安全护栏深度集成到其模型中,以至于恶意行为者无法利用AI最黑暗的潜力。艾萨克·阿西莫夫在他关于机器人学的定律中阐述得最好:机器人不得伤害人类,或因不作为而允许人类受到伤害。 即使当AI变得比地球上任何人类都更聪明时——AI领导者坚信这一事件终将发生——这些安全护栏也必须坚守阵地。
因此,领先的AI实验室争相将他们的产品投入尖端军事和情报行动中,这似乎是矛盾的。作为第一家拥有机密合同的主要实验室,Anthropic为政府提供了一套“专为美国国家安全客户定制的Claude Gov模型”。然而,Anthropic表示,他们在这样做时并未违反自己的安全标准,其中包括禁止使用Claude制造或设计武器。Anthropic首席执行官达里奥·阿莫代伊明确表示,他不希望Claude参与自主武器或AI政府监控。但这可能与现任政府的期望相悖。国防部首席技术官埃米尔·迈克尔(他曾是Uber的首席商务官)本周告诉记者,政府无法容忍一家AI公司限制军方在其武器中使用AI。“如果有一个无人机群从军事基地蜂拥而出,你有什么办法将其击落?如果人类的反应时间不够快……你打算怎么做?”他反问道。阿西莫夫的第一定律在此看来荡然无存。
有一个很有力的论点是,有效的国家安全需要来自最具创新性公司的最佳技术。虽然几年前一些科技公司可能还会对与五角大楼合作感到犹豫,但在2026年,它们通常都是热衷于展示爱国主义的潜在军事承包商。我还没有听到任何AI高管谈论他们的模型与致命武力相关联,但Palantir首席执行官亚历克斯·卡普毫不避讳地,带着明显的自豪感说:“我们的产品有时被用来杀人。”
美国在与像委内瑞拉这样的国家交战时,或许可以肆无忌惮地炫耀其AI实力。但复杂的对手将不得不积极实施他们自己的国家安全AI版本,其结果将是一场全面的军备竞赛。政府可能对那些坚持在“合法使用”的定义上设置限制或进行法律区分的AI公司缺乏耐心,尤其是在存在致命实践受到质疑的情况下。(特别是对于一个认为可以随意重新定义法律以证明其被许多人视为战争罪行的行为的政府而言。)五角大楼的声明明确表示:如果AI公司想与国防部合作,它们就必须承诺不惜一切代价赢得胜利。
这种思维方式在五角大楼或许说得通,但它将创建安全AI的努力引向了错误的方向。如果你正在创造一种不会伤害人类的AI形式,同时又致力于开发投送致命武力的版本,那是适得其反的。就在几年前,政府和科技高管们还在认真讨论可能帮助监测和限制AI有害用途的国际机构。但你现在很少听到这种讨论了。AI成为战争的未来已成定局。更令人恐惧的是,AI本身的未来可能会更倾向于战争中看到的暴力——如果制造AI的公司和使用AI的国家不注意控制这项技术的话。
我一直相信,我们这个时代的主要故事是数字技术的崛起。政客、政权乃至国家可能会来来去去——但技术对人类的重塑是不可逆转的。当唐纳德·特朗普于2016年首次当选总统时,我在一篇题为“iPhone比唐纳德·特朗普更重要”的文章中阐述了这一理论。在他2024年连任后,我又写了一篇续篇,论证AI比总统更具混乱制造能力。从长远来看,我当时认为,科学终将胜过特朗普。
但这个理论现在感觉有点动摇了。未来可能取决于谁掌管着先进的AI以及他们如何塑造和利用它。当AI巨头们披着爱国主义的外衣,寻求与五角大楼达成交易时,事实是,他们正在向一个拒绝接受监管的政府和战争部门提供一种令人恐惧的强大且不可预测的技术。阿西莫夫会怎么想?
这是史蒂文·利维的Backchannel 通讯的一个版本。可以在此处阅读以往的通讯。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区