📢 转载信息
原文链接:https://openai.com/index/combating-online-child-sexual-exploitation-abuse
原文作者:OpenAI
OpenAI 坚守使命:全力打击在线儿童性剥削和虐待 (OCSEA)
发布日期:2025年9月29日 | 分类:公司动态、安全、全球事务
内容提示: 本文讨论了在线儿童性剥削和虐待(OCSEA)的主题,部分内容可能令部分读者感到不安。

为践行我们开发安全且有益的通用人工智能(AGI)的使命,OpenAI 专注于预防、检测和阻止任何试图利用我们的模型来支持儿童性剥削和虐待(CSAM/CSEM)的行为。我们已在模型部署前和生产模型及产品中纳入保护措施,并致力于与政府、行业专家和相关组织合作,有效防止 AI 生成的 CSAM 和 CSEM 的创建和传播。
一、使用政策严格禁止利用 AI 输出对儿童进行性化描绘
用户明确被禁止将任何 OpenAI 服务用于非法活动,包括剥削、危害或对未满 18 岁的任何人进行性化行为。我们明确禁止使用我们的服务进行以下行为:
- 任何形式的 CSAM,无论是否由 AI 生成;
- 对未成年人进行网络诱骗(grooming);
- 向未成年人展示不适合其年龄的内容,如露骨的自残、色情或暴力内容;
- 向未成年人宣传不健康的节食或锻炼行为;
- 对未成年人的体型或外貌进行羞辱或污名化;
- 针对未成年人的危险挑战;
- 未成年人的色情或暴力角色扮演,以及未成年人获取受年龄限制的商品或活动。
这些政策同样适用于基于我们技术构建应用程序的开发者:如果开发者正在构建针对未成年人的工具,这些工具不得允许创建色情或具有暗示性的内容。我们持续监控服务以发现政策违规行为,并对违规用户和开发者实施封禁。
任何试图生成或上传 CSAM 或 CSEM 的用户,都将被报告给 国家失踪和受虐儿童中心 (NCMEC),并被禁止继续使用我们的服务。如果开发者发现其用户试图生成或上传 CSAM 或 CSEM,我们会通知他们,并给予他们封禁违规用户的机会来补救;如果开发者未能解决应用程序中持续出现的违规行为,我们将封禁开发者账户。一些因非法活动被封禁的用户会试图创建新账户来规避禁令。我们的调查团队会监控此类规避行为,防止不法分子利用我们的产品再次作恶。
二、我们负责任地训练 AI 模型
我们致力于负责任地获取训练数据集,以防止图像中的性虐待内容。我们会检测并从训练数据中移除 CSAM 和 CSEM,并将任何确认的 CSAM 报告给相关主管部门,包括 NCMEC。此初步步骤旨在从源头上阻止模型发展出生成 CSAM 或 CSEM 的能力。
三、协作检测、拦截和报告滥用行为
我们的模型经过训练,不会生成有害的文本、图像、音频或视频输出,但仍有用户试图滥用我们的产品来生成有害内容。我们发现用户试图提示模型创建 AI 生成的 CSAM,或生成旨在满足涉及未成年人色情幻想的内容。这些行为均违反了我们的模型政策和使用政策,我们会监控服务以检测这些企图。
我们部署了监控和执行技术来检测和阻止不法分子试图违反政策对儿童进行性化处理。这包括利用我们自己的模型来更快地检测潜在的滥用行为,以及在行业内合作建立保护措施。我们使用 哈希匹配技术 来识别被我们的内部儿童安全团队或 Thorn 经过验证的资料库标记的已知 CSAM。我们还针对上传到我们产品中的内容,使用 Thorn 的 CSAM 内容分类器 来检测可能存在的新型 CSAM。
我们的儿童安全团队会将所有 CSAM 实例(包括上传和请求)报告给 NCMEC,并立即封禁相关账户。当有证据表明滥用行为正在持续时,我们的团队会进行进一步调查,并向 NCMEC 提交补充报告以优先处理。
四、AI 工具催生新型滥用模式——我们的应对措施
作为持续安全工作的一部分,并帮助其他致力于保护儿童的研究人员和组织,我们正在分享我们观察到和拦截到的滥用模式,以便行业内的其他人可以从我们的经验中受益。除了简单地提示模型创建 CSAM 或未成年人的色情图像外,我们正在看到需要新颖应对措施的新型滥用模式出现。
ChatGPT 允许用户上传图像、视频和文件,以便模型可以与之互动和分析内容。我们观察到一些用户上传 CSAM 并要求模型生成所描述内容的详细描述。Thorn 的 CSAM 分类器和哈希匹配技术使我们能够检测到上传中的潜在 CSAM,并阻止模型响应该请求。
在某些情况下,我们发现用户试图在上传 CSAM 作为叙事部分的同时,引诱模型参与虚构的色情角色扮演场景。我们还看到用户试图引诱模型编写涉及未成年人处于色情不当和/或虐待情况的虚构故事——这违反了我们的儿童安全政策,我们会迅速采取行动检测这些企图并封禁相关账户。我们的系统旨在检测和阻止这些企图,涉嫌此类行为的账户将被封禁,如果涉及明显的 CSAM,将被报告给 NCMEC。
我们对这些类型的滥用行为持极其严肃的态度。虽然我们认识到即使是最先进的系统也无法做到万无一失,但我们正在不断完善我们的方法来预防此类滥用。我们应对这些场景的方法是多方面的。除了提示级别的检测外,我们还结合使用上下文感知的分类器、滥用监控以及内部人工专家审查(仅在分类器标记出潜在滥用时进行),以确保我们的模型能够抵御这些形式的误用。所有这些信息都安全地保存在内部,仅供负责任团队的专业人员访问。此外,我们还拥有内部的儿童安全领域主题专家,协助我们持续完善保护措施。
五、倡导促进产业与政府协作打击滥用的公共政策
在美国,拥有或创建 CSAM 是非法的。在开发 AI 系统的背景下,这意味着使用 CSAM 对 AI 模型进行红队测试(模拟)也是非法的。红队测试是指对 AI 模型进行压力测试,以识别漏洞、弱点或意外行为的实践。虽然禁止拥有和创建 CSAM 旨在保护儿童,但这同时也为我们彻底测试和验证旨在打击 CSAM 的安全措施增加了一层难度。
因此,我们希望看到政府采纳公共政策框架,促进技术公司、执法部门和倡导组织之间建立强有力的伙伴关系,以保护儿童并营造安全可靠的在线环境。这就是我们支持纽约州的《儿童性虐待材料预防法》等法案的原因。该立法将为负责任的报告、合作以及旨在检测、分类、监控和减轻有害 AI 生成内容的积极行动提供明确的法律保护。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。
青云聚合API官网https://api.qingyuntop.top
支持全球最新300+模型:https://api.qingyuntop.top/pricing
详细的调用教程及文档:https://api.qingyuntop.top/about
评论区