📢 转载信息
原文链接:https://openai.com/index/our-agreement-with-the-department-of-war
原文作者:OpenAI
2026年3月2日更新
在我们的讨论中,国防部明确表示,他们与我们一样致力于确保我们的工具不会被用于国内监控。为了最大限度地明确我们的原则,我们共同努力,在协议中增加了附加条款。
这些条款明确规定,我们的工具不得用于对美国人员进行国内监控,包括通过采购或使用商业获取的个人或身份信息。国防部还确认,我们公司的服务不会被国防部情报机构(如NSA)使用。向这些机构提供任何服务都需要一份新的协议。
新条款内容如下:
- 与适用法律(包括《美国宪法第四修正案》、《1947年国家安全法》、《1978年 FISA 法案》)一致,AI系统不得被故意用于对美国公民和国民进行国内监控。
- 为避免疑义,国防部理解此限制禁止通过采购或使用商业获取的个人或身份信息,对美国公民或国民进行蓄意跟踪、监控或监视。
国防部计划召集一个工作组,成员包括前沿AI实验室、云服务提供商以及国防部的政策和运营部门的领导。OpenAI 将参与其中,并期望这将成为未来关于新兴AI能力、隐私和国家安全挑战持续对话的重要论坛。
这些更新建立在我们上周宣布的框架之上,我们希望这将为其他实验室未来与国防部的合作开辟道路。
昨天,我们与五角大楼就部署先进 AI 系统到加密环境达成了一项协议,我们曾请求他们也向所有 AI 公司提供相同的条款。
我们认为,我们这份协议比以往任何涉及加密 AI 部署的协议(包括 Anthropic 的协议)都包含了更多的安全防护措施。原因如下:
我们有三个主要的红线来指导我们与国防部的合作,这些红线通常也是其他几个前沿实验室所共有的:
- 不得使用 OpenAI 技术进行大规模国内监控。
- 不得使用 OpenAI 技术来指挥自主武器系统。
- 不得使用 OpenAI 技术进行高风险的自动决策(例如,“社会信用”之类的系统)。
其他 AI 实验室已经减少或取消了他们的安全防护措施,并在国家安全部署中主要依赖使用政策作为其主要的保障措施。我们认为我们的方法能更好地防止不当使用。
在我们的协议中,我们通过更广泛、多层次的方法来保护我们的红线。我们完全自主控制我们的安全堆栈,我们通过云进行部署,经过审查的 OpenAI 人员会参与其中,并且我们拥有强有力的合同保护。所有这些都是在现有美国法律的强有力保护之外的。
我们坚信民主。鉴于这项技术的重要性,我们认为唯一可行的前进道路需要 AI 努力与民主进程进行深度合作。我们也相信我们的技术将为世界带来新的风险,我们希望那些保卫美国的人拥有最先进的工具。
我们的协议包括:
1. 部署架构。这是一项仅限云端部署,包含我们运行的安全堆栈,其中融入了这些原则和其他原则。我们不会向国防部提供“无防护”或未经过安全训练的模型,也不会在边缘设备上部署我们的模型(因为这可能存在用于自主致命性武器的风险)。
我们的部署架构将使我们能够独立验证这些红线没有被跨越,包括运行和更新分类器。
2. 我们的合同。相关语言如下:
国防部可以使用 AI 系统用于所有合法目的,并遵守适用法律、运营要求以及完善的安全和监督协议。在法律、法规或国防部政策要求人工控制的情况下,AI 系统不得被用于独立指挥自主武器,也不会用于承担需要人工决策者批准的其他高风险决策。根据国防部指令 3000.09(2023 年 1 月 25 日发布),在任何自主和半自主系统中使用的 AI 都必须经过严格的验证、测试,以确保它们在部署前能在实际环境中按预期运行。
对于情报活动,任何涉及私人信息的处理都将遵守《第四修正案》、《1947 年国家安全法》和《1978 年外国情报和监视法案》、第 12333 号行政命令以及适用国防部指令中关于明确的外国情报目的的要求。AI 系统不得用于不受限制地监控美国人员的私人信息,并遵守这些规定。除非《波塞·康曼德法案》和其他适用法律允许,否则该系统不得用于国内执法活动。
3. AI 专家参与。我们将有经过审查的、部署在前线的 OpenAI 工程师协助政府,并让经过审查的安全和对齐研究员参与其中。
常见问题解答
您为什么要这样做?
首先,我们认为美国军方绝对需要强大的 AI 模型来支持他们的任务,尤其是在潜在对手日益将 AI 技术整合到其系统中的情况下,他们面临的威胁日益增长。最初,我们没有签订加密部署合同,因为我们觉得我们的安全防护措施和系统尚未准备就绪,并且我们一直在努力确保加密部署能够进行,同时确保红线不会被跨越。
我们曾(并且仍然)不愿意移除关键技术安全措施来增强国家安全工作的性能。这并不是支持美国军方的正确方法。
其次,我们也想缓和国防部与美国 AI 实验室之间的紧张关系。美好的未来将需要政府与 AI 实验室之间进行真正而深入的合作。作为我们协议的一部分,我们要求将相同的条款提供给所有 AI 实验室,特别是政府将努力解决与 Anthropic 的问题;当前的状态是开启政府与 AI 实验室之间下一阶段合作的一个非常糟糕的开端。
您为什么能达成协议,而 Anthropic 却不能?您是不是签署了他们不接受的协议?
根据我们所知,我们相信我们的合同提供了比早期协议(包括 Anthropic 的原始合同)更好的保障和更负责任的安全措施。我们认为我们的红线在这里更具可执行性,因为部署仅限于云端(而非边缘),保持了我们认为最佳的安全堆栈运行,并让经过审查的 OpenAI 人员参与其中。
我们不知道 Anthropic 为什么没能达成这项协议,我们希望他们以及更多实验室能够考虑。
您是否认为 Anthropic 应该被指定为“供应链风险”?
不,我们已向政府明确表达了我们的立场。
这项协议是否会使国防部能够使用 OpenAI 模型来驱动自主武器?
不会。基于我们的安全堆栈、仅限云端的部署、合同条款以及现有的法律、法规和政策,我们相信这种情况不会发生。我们还将让 OpenAI 人员参与其中,以提供额外的保证。
这项协议是否会使国防部能够使用 OpenAI 模型来对美国人员进行大规模监控?
不会。基于我们的安全堆栈、合同条款以及严格限制国防部进行国内监控的现有法律,我们相信这种情况不会发生。我们还将让 OpenAI 人员参与其中,以提供额外的保证。
您是否必须在没有安全堆栈的情况下部署模型?
不,我们保留对我们部署的安全堆栈的全部控制权,并且不会在没有安全防护措施的情况下进行部署。此外,我们的安全和对齐研究员将参与其中,并帮助随着时间的推移改进系统。我们知道其他 AI 实验室已经减少了模型的防护措施,并将使用政策作为主要保障措施,但我们认为我们的分层方法能更好地防止不当使用。
如果政府违反合同条款会怎样?
与任何合同一样,如果对方违反条款,我们可以终止合同。我们不期望这种情况发生。
如果政府只是修改了法律或现有的国防部政策怎么办?
我们的合同明确提到了当前现行的监控和自主武器法律及政策,因此即使这些法律或政策将来发生变化,我们系统的使用仍然必须与协议中反映的当前标准保持一致。
您如何回应 Anthropic 在其博客文章中提出的关于与国防部讨论的论点?
在他们的文章中,Anthropic 陈述了他们的两个红线(我们也有这两个红线,外加第三个:自动高风险决策),并解释了为什么他们认为在当时他们看到的国防部合同中这些红线不会得到遵守。以下是我们认为为什么这些相同的红线会在我们的合同中得到遵守的原因:
- 大规模国内监控。在我们互动中很清楚,国防部认为大规模国内监控是非法的,并且不打算为此目的使用。我们确保在合同中明确规定其不受合法使用的涵盖。
- 完全自主的武器。我们合同中涵盖的云部署平台不允许驱动完全自主的武器,因为这需要边缘部署。
除了这些保护措施外,我们的合同还提供了额外的分层安全措施,包括我们的安全堆栈和参与其中的 OpenAI 技术专家。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区