目 录CONTENT

文章目录

美陆军少将披露:正利用AI辅助个人与组织决策制定

Administrator
2025-10-17 / 0 评论 / 0 点赞 / 2 阅读 / 0 字

📢 转载信息

原文链接:https://arstechnica.com/ai/2025/10/army-general-says-hes-using-ai-to-improve-decision-making/

原文作者:Kyle Orland


美军高层首次公开:正利用AI辅助日常及战略决策制定

就在上个月,OpenAI发布了一项使用研究报告,显示近15%的ChatGPT工作相关对话涉及“决策制定和问题解决”。如今有消息指出,美国军方至少一位高级官员正为实现相同目的而采用大型语言模型(LLM)。

在本周于华盛顿特区举行的美国陆军协会会议上,威廉·“汉克”·泰勒少将据报道表示:“我与‘Chat’最近关系非常密切。”他用一个令人不安的熟悉的小名指代一个未指明的AI聊天机器人。“作为指挥官,AI对我来说非常、非常有趣。”

军事新闻网站DefenseScoop报道称,泰勒少将告诉一群记者,他本人和其驻扎在韩国的第八集团军“定期使用”AI来现代化其在后勤规划和作战方面的预测性分析。泰勒表示,这对于诸如“仅仅是撰写我们的周报之类”的文书工作很有帮助,但同时也为他们整体的方向提供了参考。

“最近我个人一直在与我的士兵们一起努力的一个方面是决策制定——个体决策制定,”泰勒说。“以及我们在个人生活中如何做决策,我们做决策时,这一点非常重要。所以,这是我一直在询问和尝试构建模型来帮助我们所有人的东西。尤其是,我该如何做决策,影响到我个人,也影响到我的组织和整体战备状态的个人决策?”

这与人们对《终结者》中AI自主武器系统的设想——将致命决策权从人类手中夺走的景象——仍有很大距离。然而,对于熟悉这些模型众所周知的臆造虚假引文阿谀奉承用户倾向的人来说,将LLM用于军事决策可能会让人感到担忧。

Photo of Kyle Orland

AI在军队中的应用与成本效益考量

今年五月,陆军推出了陆军企业LLM工作空间——基于商业的Ask Sage平台构建——旨在简化如新闻稿和人员描述等简单的文本任务。然而,对于其他所谓的“后台”军事工作而言,早期测试表明,生成式AI可能并非总是军事预算最有效的用途。

陆军首席信息官莱昂内尔·加尔西加(Leonel Garciga)在八月告诉DefenseScoop:“很多时候,我们发现人们使用这项技术来回答一个我们只需用电子表格和一个数学问题就能解决的事情,但我们却要花更多的钱来完成它。”他问道:“是否物有所值?或者是否有另一种方式来解决同一个问题,尽管从技术角度看可能没那么酷,但从执行角度看更可行?”

2023年,美国国务院列出了军事使用AI的最佳实践,重点关注AI工具在人类指挥链中的伦理和负责任的部署。报告强调,人类应继续掌控“有关核武器使用的决策”,并应保持能力去“断开或停用表现出意外行为的已部署系统”。

自那以后,军方在战场上展示了对AI技术的兴趣,应用范围从武装AI瞄准系统的无人机,到通过OpenAI与军事承包商Anduril的合作来“提高态势感知能力”。2024年1月,OpenAI在其ChatGPT使用政策中取消了对“军事和战争用途”的禁令,但仍然禁止客户通过该LLM“开发或使用武器”。

Photo of Kyle Orland
Kyle Orland 高级游戏编辑



🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区