📢 转载信息
原文链接:https://www.technologyreview.com/2025/11/17/1127514/the-state-of-ai-the-new-rules-of-war/
原文作者:Helen Warrell and James O'Donnell
欢迎回到《人工智能现状》,这是《金融时报》与《麻省理工科技评论》的一项新合作。每周一,两家出版物的作家将就生成式AI革命重塑全球力量的一个方面进行辩论。
在本次对话中,《金融时报》调查记者兼前国防与安全编辑海伦·沃雷尔(Helen Warrell)和《麻省理工科技评论》高级AI记者詹姆斯·奥唐奈尔(James O’Donnell)探讨了AI在军事应用中涉及的伦理困境和经济激励。
海伦·沃雷尔(Helen Warrell),《金融时报》调查记者
时间是2027年7月,中国正处于入侵台湾的边缘。配备AI瞄准能力的自主无人机已准备就绪,旨在压倒台湾的防空系统,同时一系列由AI生成的破坏性网络攻击切断了能源供应和关键通信。与此同时,一个由亲华AI支持的“迷因农场”在 ([meme farm](https://www.technologyreview.com/definition/meme/)) 全球社交媒体上散播的大规模虚假信息运动,削弱了国际社会对北京侵略行为的谴责。
这种情况给关于AI在战争中使用的讨论带来了反乌托邦式的恐惧。军事指挥官期望一支比人类指挥的部队更快、更精确的数字化增强力量。但人们担心,随着AI在冲突中扮演越来越核心的角色,这些指挥官将失去对冲突的控制,因为冲突可能升级过快,且缺乏伦理或法律监督。美国前国务卿亨利·基辛格(Henry Kissinger)在他生命的最后几年里,一直在警告即将到来的AI驱动战争的灾难。
理解和减轻这些风险是我们这个时代军事上的优先事项,一些人称之为我们的“奥本海默时刻”。西方正在形成的一种新共识是,关于部署核武器的决定不应外包给AI。联合国秘书长安东尼奥·古特雷斯(António Guterres)更进一步,呼吁完全禁止全自主致命性武器系统。监管必须跟上不断发展的技术,这一点至关重要。但在受科幻小说驱动的兴奋中,人们很容易忽略实际可能发生的事情。正如哈佛贝尔弗中心的研究人员所指出的那样,AI乐观主义者常常低估了部署全自主武器系统的难度。完全有可能,AI在战斗中的能力被过度炒作了。
安东尼·金(Anthony King)是埃克塞特大学战略与安全研究所所长,也是这一论点的关键支持者。他认为,AI不会取代人类,而是将被用来提高军事洞察力。他坚持认为,即使战争的性质正在改变,远程技术正在改进武器系统,但“战争本身的完全自动化仅仅是一种错觉”。
在目前AI军事用途的三大领域中,没有一个涉及完全自主性。它正被用于规划和后勤、网络战(在破坏、间谍活动、黑客攻击和信息作战方面;以及——最具争议的——武器瞄准方面,这项应用已经在乌克兰和加沙战场上使用)。基辅的部队使用AI软件来引导能够躲避俄罗斯干扰器的无人机攻击敏感目标。以色列国防军开发了一个名为“Lavender”(薰衣草)的AI辅助决策支持系统,帮助在加沙确定了约37,000个潜在的人类目标。
“Lavender”数据库显然有复制其训练数据中偏见的危险。但军事人员也带有偏见。一名使用“Lavender”的以色列情报官员声称,他对一个“统计机制”的公平性比对一个悲痛的士兵更有信心。
设计AI武器的技术乐观主义者甚至否认需要特定的新控制措施来限制其能力。基思·迪尔(Keith Dear)曾是英国军官,现经营战略预测公司 Cassi AI,他说现行法律绰绰有余:“你确保训练数据中没有任何东西可能导致系统失控……当你确信部署时——而你,人类指挥官,要对他们可能做的任何错误行为负责。”
一个引人入胜的观点是,关于AI在战争中使用的恐惧和震惊,可能来自于那些不熟悉残酷但现实的军事规范的人。詹姆斯,你对此有何看法?一些反对在战争中使用AI的反对意见,与其说是关于自主系统的使用,不如说是对战争本身的反对意见,是这样吗?
詹姆斯·奥唐奈尔(James O’Donnell)回应道:
你好,海伦,
我注意到的一点是,AI公司在对待其产品军事应用方面的态度发生了剧烈转变。2024年初,OpenAI明确禁止使用其工具进行战争,但到年底,它已经与Anduril签署了一项协议,帮助其在战场上击落无人机。
这一举措——虽然不是完全自主的武器,但绝对是AI在战场上的应用——标志着科技公司与国防领域公开关联的程度发生了巨大变化。
在此期间发生了什么?首先,是炒作。我们被告知,AI不仅将带来超级智能和科学发现,还将使战争更尖锐、更精确、更有条理,减少人为失误。例如,我与美国海军陆战队员交谈,他们曾在南太平洋测试了一种AI,该AI宣传称可以比人类更快地分析外国情报。
其次,金钱起作用。OpenAI和其他公司需要开始收回他们在训练和运行这些模型上花费的巨额资金。而五角大楼的口袋是最深的。欧洲的国防负责人似乎也热衷于挥霍现金。与此同时,今年用于国防技术的风险投资资金已经翻了一番,超过了2024年全年的总和,因为风险投资家希望从军队对购买初创公司的全新意愿中获利。
我确实认为,对AI战争的反对意见可以分为几类,其中一类纯粹是拒绝接受这样一个观点:如果瞄准更精确(前提是它真的更精确),结果是人员伤亡更少,而不是更多的战争。考虑一下阿富汗无人机战争的第一阶段。随着无人机袭击的实施成本变得更低,我们真的能说它减少了杀戮吗?相反,它是否仅仅是以更少的美元实现了更多的破坏?
但第二类批评(我现在终于回答你的问题了)来自那些精通战争现实,但对该技术的基本局限性有非常具体抱怨的人。例如,米西·库明斯(Missy Cummings)曾是美国海军的战斗机飞行员,现任乔治梅森大学工程与计算机科学教授。她一直直言不讳地认为,特别是大型语言模型,在军事环境中很容易犯下巨大错误。
对这种抱怨的典型回应是,AI的输出是经过人工检查的。但是,如果一个AI模型依赖于数千个输入来得出结论,一个人的检查真的可以覆盖所有这些吗?
科技公司正在对AI在这些高风险应用中的能力做出极其宏大的承诺,而与此同时,实施的压力却非常大。对我来说,这意味着现在更需要怀疑,而不是更少。
海伦回应:
你好,詹姆斯,
我们当然应该继续质疑AI战争系统的安全性以及它们所受到的监管——并在这一领域追究政治领导人的责任。我的意思是,我们也应该对你正确描述的某些公司关于AI在战场上可能实现的功能所做出的“极其宏大的承诺”抱有一定程度的怀疑。
一个相对新兴的(尽管正在蓬勃发展的)国防技术领域将为军事提供机会和危险。危险在于,在AI武器军备竞赛的速度和保密性中,这些新兴能力可能无法获得它们迫切需要的审查和辩论。
延伸阅读:
宾夕法尼亚大学佩里世界学院主任迈克尔·C·霍洛维茨(Michael C. Horowitz)在这篇《金融时报》的评论文章中解释了军事AI系统开发中责任的必要性。
《金融时报》的科技播客探讨了以色列的国防技术生态系统可以告诉我们关于战争的未来什么。
这篇《麻省理工科技评论》的文章分析了OpenAI如何完成了向允许其技术用于战场上的转变。
《麻省理工科技评论》还揭示了美国士兵如何利用生成式AI帮助筛选数千条开源情报。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区