目 录CONTENT

文章目录

人工智能的现状:战争将永远改变的新规则

Administrator
2025-11-18 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.technologyreview.com/2025/11/17/1127514/the-state-of-ai-the-new-rules-of-war/

原文作者:Helen Warrell and James O'Donnell


欢迎回到《人工智能现状》,这是《金融时报》和麻省理工科技评论之间的一项新合作。每周一,两家出版物的作家将就重塑全球力量的生成式人工智能革命的一个方面进行辩论。

在这场对话中,《金融时报》调查记者兼前国防和安全编辑Helen Warrell,以及《麻省理工科技评论》高级人工智能记者James O’Donnell,探讨了人工智能在军事应用中的伦理困境和经济激励。

Helen Warrell, 《金融时报》调查记者

时间是2027年7月,中国正处于入侵台湾的边缘。具备人工智能目标能力的自主无人机已准备好压倒该岛的防空系统,同时一系列由人工智能生成的毁灭性网络攻击切断了能源供应和关键通信。与此同时,一个由亲华人工智能支持的模因农场(meme farm)在世界各地社交媒体上发起的大规模虚假信息运动,削弱了国际社会对北京侵略行为的谴责。

像这样的场景给人工智能在战争中的应用带来了反乌托邦式的恐怖。军事指挥官希望获得比人类指挥的战斗更快、更精确的数字化增强部队。但人们担心,随着人工智能发挥越来越核心的作用,这些指挥官将失去对冲突的控制,冲突可能会升级过快,并且缺乏道德或法律监督。美国前国务卿亨利·基辛格在他生命的最后几年里一直在警告人工智能驱动的战争即将带来的灾难。

理解和减轻这些风险是我们这个时代军事上的优先事项——有人称之为“奥本海默时刻”。西方出现的一种新兴共识是,关于部署核武器的决定不应外包给人工智能。联合国秘书长安东尼奥·古特雷斯则更进一步,呼吁完全禁止全自主致命性武器系统。监管必须跟上技术发展,这一点至关重要。但在科幻小说般的兴奋中,人们很容易忽略实际情况。正如哈佛贝尔弗中心的研究人员指出的那样,人工智能的乐观主义者往往低估了部署全自主武器系统的挑战。完全有可能,人工智能在作战中的能力被过度炒作了。

安东尼·金(Anthony King)是埃克塞特大学战略与安全研究所所长,也是这一论点的关键倡导者,他认为人工智能将被用来提高军事洞察力,而不是取代人类。他坚称,即使战争的性质正在改变,远程技术正在改进武器系统,但“战争本身的完全自动化只是一个幻想”。

在目前人工智能在军事上的三种应用中,没有一种涉及完全自主。它正被用于规划和后勤、网络战(在破坏、间谍活动、黑客攻击和信息作战中;以及——最具争议性地——武器瞄准方面,后者已在乌克兰和加沙战场上投入使用。基辅的部队使用人工智能软件来引导能够躲避俄罗斯干扰的无人机,使其接近敏感目标。以色列国防军开发了一个名为“Lavender”的人工智能辅助决策支持系统,帮助他们在加沙确定了大约37,000个潜在的人类目标。

Helen Warrell and James O
FT/MIT TECHNOLOGY REVIEW | ADOBE STOCK

“Lavender”数据库显然存在复制其训练数据中偏见的危险。但军事人员也带有偏见。一位使用“Lavender”的以色列情报官员声称,他对一个“统计机制”的公正性比对一位悲痛的士兵更有信心。

设计人工智能武器的技术乐观主义者甚至否认需要特定的新控制措施来限制其能力。基思·迪尔(Keith Dear)是前英国军官,现任战略预测公司Cassi AI的负责人,他说现有的法律绰绰有余:“你确保训练数据中没有任何可能导致系统失控的东西……当你确信可以部署它时——而且你,作为人类指挥官,对他们可能犯下的任何错误负责。”

有人认为,对人工智能在战争中使用的恐惧和震惊可能来自于那些不熟悉残酷但现实的军事规范的人。詹姆斯,你觉得呢?一些反对人工智能在战争中使用的观点,是否与其说是反对自主系统的使用,不如说是反对战争本身?

James O’Donnell 回复:

你好,海伦,

我注意到的一件事是,人工智能公司在对待其产品军事应用方面的态度发生了巨大变化。2024年初,OpenAI明确禁止使用其工具进行战争,但到了年底,它已经签署了与Anduril合作的协议,以帮助其在战场上击落无人机。

这一步——虽然不是完全自主的武器——标志着科技公司在多大程度上可以公开将自己与国防联系起来,发生了剧烈变化。

在此期间发生了什么?首先是炒作。我们被告知,人工智能不仅会带来超级智能和科学发现,还会使战争更尖锐、更精确、更有条理,减少人为失误。例如,我与几位美国海军陆战队员交谈,他们测试了一种人工智能,这种人工智能在南太平洋巡逻时,能够比人类更快地分析外国情报

Ask AI
Why it matters to you?BETA
Here’s why this story might matter to you, according to AI. This is a beta feature and AI hallucinates—it might get weird
.

其次,金钱是关键。OpenAI和其他公司需要开始收回他们在训练和运行这些模型方面花费的巨额资金。而五角大楼的口袋是最深的。欧洲的国防部门似乎也急于砸钱。与此同时,今年国防科技领域的风险投资总额已经翻了一番,超过了2024年全年,因为风险投资家希望从军队新愿意从初创公司购买的意愿中获利。

我确实认为,反对人工智能战争的反对意见可以分为几类,其中一类完全拒绝了这样一种观点:如果目标定位更精确(前提是它确实更精确),就不会减少伤亡,只会增加战争。想想阿富汗无人机战争的第一阶段。随着无人机袭击的实施成本变得更低,我们真的能说它减少了杀戮吗?相反,它是否只是用更少的钱造成了更多的破坏?

但第二类批评(现在我终于要回答你的问题了)来自于那些非常了解战争现实,但对该技术的根本局限性有非常具体抱怨的人。例如,米西·库明斯(Missy Cummings)曾是美国海军的战斗机飞行员,现任乔治梅森大学工程学和计算机科学教授。她一直直言不讳地认为,特别是大型语言模型,在军事环境中很容易犯下大错。

对这一抱怨的典型回应是,人工智能的输出会经过人工检查。但是,如果一个人工智能模型依赖数千个输入才能得出结论,这个结论真的能被一个人检查出来吗?

科技公司正在就人工智能在这些高风险应用中的能力做出极其夸大的承诺,与此同时,实施这些能力的压力非常大。对我来说,这意味着现在需要更多的怀疑,而不是更少。

Helen 回应:

你好,詹姆斯,

我们当然应该继续质疑人工智能战争系统的安全性以及它们所受到的监督——并在这一领域要求政治领导人承担责任。我的观点是,我们也应该对你正确描述的一些公司所做出的关于人工智能可能在战场上实现什么的“极其宏大的承诺”持怀疑态度。

一个相对初级(尽管正在蓬勃发展)的国防科技领域,将为军队带来机遇和危险。危险在于,在人工智能武器军备竞赛的速度和保密性中,这些新兴能力可能无法获得它们迫切需要的审视和辩论。

延伸阅读:

宾夕法尼亚大学佩里世界研究所所长Michael C. Horowitz 在这篇《金融时报》评论文章中解释了发展军事人工智能系统责任制的必要性。

《金融时报》科技播客探讨了以色列的国防技术生态系统能告诉我们哪些关于战争的未来信息

这篇《麻省理工科技评论》文章分析了OpenAI如何完成其向允许其技术应用于战场的转变。

《麻省理工科技评论》还揭露了美国士兵如何使用生成式人工智能来帮助筛选数千条开源情报信息




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区