📢 转载信息
原文链接:https://openai.com/index/our-agreement-with-the-department-of-war
原文作者:OpenAI
2026 年 3 月 2 日更新
在我们与战争部的整个讨论过程中,战争部明确表示,其与我们一样致力于确保 AI 工具不会用于国内监视。为了阐明我们的原则,我们共同协作,在协议中增加了补充条款。
这些条款明确规定,我们的工具将不会用于对美国人员进行国内监视,包括严禁通过采购或利用商业获取的个人或身份识别信息来达成监视目的。此外,战争部确认,其下属的军事情报机构(如美国国家安全局 NSA)将不会使用我们的服务。向此类机构提供任何服务均需另行签署协议。
新增条款内容如下:
- 根据现行法律,包括《美国宪法第四修正案》、《1947 年国家安全法》和《1978 年外国情报监视法》(FISA),该 AI 系统不得被有意用于对美国人员及国民进行国内监视。
- 为免生疑问,战争部理解此限制禁止对美国人员或国民进行蓄意的追踪、监视或监测,包括严禁通过采购或利用商业获取的个人或身份识别信息来达成此类目的。
战争部计划召集一个由前沿 AI 实验室领导者、云服务提供商,以及战争部政策与行动部门代表组成的专家工作组。OpenAI 将参与其中,并期望这将成为未来针对新兴 AI 能力、隐私及国家安全挑战进行持续对话的重要平台。
这些更新建立在我们上周公布的框架基础之上。我们希望,这能为其他 AI 实验室与战争部的未来合作扫清障碍并铺平道路。
昨日,我们与五角大楼就在机密环境中部署先进人工智能系统达成了协议。同时,我们已请求军方将该协议条款同样应用于所有 AI 公司。
我们认为,与以往任何机密 AI 部署协议(包括 Anthropic 的协议)相比,我们的协议设立了更多的防护栏。原因如下:
我们与战争部 (DoW) 的合作遵循三条主要安全红线,这些红线在几家前沿 AI 实验室中已成为普遍共识:
- 禁止将 OpenAI 技术用于大规模国内监控。
- 禁止将 OpenAI 技术用于直接操作自主武器系统。
- 禁止将 OpenAI 技术用于高风险的自动化决策(例如“社会信用”类系统)。
其他 AI 实验室在国家安全部署中减少或取消了安全防护栏,主要依靠“使用政策”作为核心防御手段。我们认为,我们的方案能更有效地防止不可接受的用途。
在协议中,我们通过一种更广泛的多层次方案来捍卫这些红线:我们保留对安全技术栈的完整裁量权,系统通过云端部署,并由经过安全审查的 OpenAI 人员全程参与,同时拥有强大的合同条款保障。这一切都是在美国现有严密法律保护之上的额外加固。
我们坚信民主。鉴于这项技术的重要性,我们相信唯一正确的道路是确保 AI 研发与民主进程有机相融。我们也清醒地认识到,我们的技术将给世界带来新风险,因此希望保卫美国的人员能够掌握最顶尖的工具。
我们的协议包括:
1. 部署架构。这属于纯云端部署,运行由我们控制的安全技术栈,并包含上述及其他安全原则。我们不会向战争部提供“无防护栏”或未经安全训练的模型,也不会在边缘设备上部署模型(以排除将其用于自主致命武器的可能性)。
我们的部署架构使我们能够独立验证这些红线未被逾越,包括运行和更新分类器。
2. 合同条款。以下是相关法律表述:
战争部可在遵守现行法律、作战要求以及既定安全与监督协议的前提下,将人工智能系统用于所有合法用途。在法律、规章或部门政策要求人工控制的任何情况下,人工智能系统均不得用于独立指挥自主武器;同理,系统也不得用于承担根据相关授权需由人类决策者批准的其他高风险决策。根据国防部第 3000.09 号指令(2023 年 1 月 25 日发布),任何在自主或半自主系统中使用的人工智能,在部署前必须经过严格的核查、验证和测试,以确保其在真实环境下按预期运行。
对于情报活动,任何涉及私人信息的处理均须遵守《宪法第四修正案》、《1947 年国家安全法》、《1978 年外国情报监视法》(FISA)、第 12333 号行政命令,以及要求具备明确国外情报目的的相关国防部指令。在遵守上述授权的前提下,人工智能系统不得用于对美国人员的私人信息进行不受限制的监控。除非《民兵团法》(Posse Comitatus Act) 及其他适用法律允许,否则系统不得用于国内执法活动。
3. AI 专家深度参与。我们将派遣经过安全审查的 OpenAI 前线工程师协助政府工作,并由经过安全审查的安全与对齐研究员全程参与把关。
常见问题解答
你们为什么要这样做?
首先,我们认为美国军方绝对需要强大的 AI 模型来支持其使命,特别是在潜在对手日益将 AI 技术整合到其系统中的威胁下。我们最初并未立即签署机密部署合同,是因为当时我们认为自身的防护措施和系统尚未就绪。此后,我们一直在努力确保机密部署能够伴随着完善的防护机制进行,以确保红线不被逾越。
无论是过去还是现在,我们都不愿为了提升国家安全工作的表现而移除核心技术防护措施。我们认为那不是支持美国军方的正确方式。
其次,我们也希望缓解战争部与美国 AI 实验室之间的紧张关系。唯有政府与 AI 实验室开展真实且深入的协作,未来才可能实现良性发展。作为本次合作的一部分,我们要求将相同的条款提供给所有 AI 实验室,并特别要求政府尝试解决与 Anthropic 之间的问题。目前的僵持状态对于开启政府与 AI 实验室的下一阶段合作而言是非常糟糕的。
为什么你们能达成协议,而 Anthropic 却不能?你们签署了他们拒绝的协议吗?
根据所掌握的信息,我们相信我们的合同比早前的协议(包括 Anthropic 最初的协议)提供了更好的保证和更负责任的防护措施。我们认为,这里的红线更具执行力,因为部署仅限于云端(而非边缘设备),确保了安全技术栈能以我们认为的最佳方式运行,并让经过安全审查的 OpenAI 人员全程参与。
我们不清楚 Anthropic 为何无法达成协议,我们希望他们以及更多的实验室会考虑该方案。
你们认为 Anthropic 应该被列为“供应链风险”吗?
不认为。我们已经向政府明确表达了这一立场。
这项协议是否会让战争部能够利用 OpenAI 模型驱动自主武器?
不会。基于我们的安全技术栈、纯云端部署模式、合同条款以及现行法律规章,我们确信这不会发生。我们还将安排 OpenAI 人员全程参与,以提供额外保障。
这项协议是否会让战争部能够利用 OpenAI 模型对美国人员进行大规模监控?
不会。基于我们的安全技术栈、合同条款以及严厉限制战争部进行国内监控的现行法律,我们确信这不会发生。我们还将安排 OpenAI 人员全程参与,以提供额外保障。
你们是否必须在没有安全技术栈的情况下部署模型?
否。我们保留对所部署安全技术栈的完整控制权,且绝不会在没有安全防护栏的情况下进行部署。此外,我们的安全与对齐研究员将全程参与,并协助持续改进系统。我们了解到其他 AI 实验室在部署中削弱了模型防护栏,并主要依靠“使用政策”作为防御,但我们认为,我们的多层方案能更有效地防止不可接受的用途。
如果政府违反合同条款会怎样?
与任何合同一样,如果对方违约,我们可以终止合同。我们预计这种情况不会发生。
如果政府直接修改法律或现行的战争部政策,会产生什么影响?
我们的合同明确引用了现行的监控及自主武器法律与政策。因此,即使这些法律或政策在未来发生变化,我们系统的使用仍须符合协议中所体现的当前标准。
你们如何回应 Anthropic 在其博客文章(在新窗口中打开)中提到的关于与战争部讨论的观点?
Anthropic 在文章中陈述了两条红线(我们拥有相同的两条,此外还有第三条:高风险自动化决策),并解释了为何他们认为在当时看到的战争部合同中,这些红线无法得到维护。以下是我们认为这些红线在我们的合同中能够成立的原因:
- 大规模国内监控。在我们的互动中,战争部明确表示大规模国内监控是非法的,且不打算将其用于此目的。我们在合同中清楚表明这一行为不属于合法使用范围。
- 全自主武器。我们合同涵盖的云端部署环境不允许驱动全自主武器,因为这类武器需要边缘部署。
除了这些保护措施外,我们的合同还提供了包括安全技术栈和 OpenAI 技术专家全程参与在内的额外多层防护。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区