目 录CONTENT

文章目录

打击网络儿童性剥削和虐待

Administrator
2025-10-21 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://openai.com/index/combating-online-child-sexual-exploitation-abuse

原文作者:OpenAI


2025年9月29日

内容警告:本帖讨论了网络儿童性剥削和虐待这一主题,部分读者可能会感到不安。

Abstract soft gradient background with smooth blends of light blue, lavender, and aqua tones, creating a calm and professional atmosphere.

本着我们开发安全且有益的人工智能(AGI)的使命,我们专注于预防、检测和阻止任何试图利用我们的模型支持儿童性剥削和虐待的行为。我们在模型部署前和生产模型及产品中都加入了保护措施,并致力于与政府、行业和专家的合作伙伴共同努力,有效防止生成和传播人工智能生成的儿童性虐待材料(CSAM)和儿童性剥削材料(CSEM)。

我们的使用政策禁止使用输出内容来性化儿童

用户被明确禁止将任何OpenAI服务用于非法活动,包括对未满18岁的任何人进行剥削、危害或性化。我们禁止使用我们的服务进行以下行为:

  • CSAM,无论其任何部分是否由人工智能生成;
  • 对未成年人进行网络诱骗(grooming);
  • 让未成年人接触不适合其年龄的内容,例如露骨的自残、色情或暴力内容;
  • 向未成年人宣传不健康的节食或运动行为;
  • 羞辱或以其他方式污名化未成年人的体型或外貌;
  • 针对未成年人的危险挑战;
  • 未成年人的色情或暴力角色扮演,以及未成年人获取限制年龄的商品或活动。

这些政策延伸至基于我们技术构建应用程序的开发者:如果开发者正在构建面向未成年人的工具,这些工具不得允许创建色情或暗示性的内容。我们会监控服务中是否存在违反这些政策的行为,并封禁被发现违反政策的用户和开发者。

任何试图生成或上传CSAM或CSEM的用户都将被报告给全国失踪与受剥削儿童中心 (NCMEC),并被禁止继续使用我们的服务。如果发现开发者的用户试图生成或上传CSAM或CSEM,我们会通知开发者,并给予他们纠正的机会,即封禁其应用中出现问题的用户;如果开发者未能纠正其应用中持续存在的问题行为,我们将封禁他们。一些因从事非法活动而被禁止使用我们产品的个人会试图通过创建新账户来规避这些禁令。我们的调查团队会监控此类规避行为,并努力阻止不法分子利用我们的产品再次实施滥用。

我们负责任地训练我们的AI模型

我们致力于负责任地获取训练数据集,以防止其中包含图像化的性虐待内容。我们检测并从训练数据中删除CSAM和CSEM,并将任何确认的CSAM报告给相关当局,包括NCMEC。此初步步骤旨在从根本上防止模型产生生成CSAM或CSEM的能力。

我们协同合作以检测、阻止和报告滥用行为

我们的模型经过训练,不会生成有害的文本、图像、音频或视频输出,但仍有一些用户试图滥用我们的产品来生成有害内容。我们发现用户试图提示模型创建人工智能生成的CSAM,或生成旨在满足涉及未成年人的性幻想的内容。这些行为违反了我们的模型政策和使用政策,我们会监控服务使用情况以检测这些企图。

我们部署了监控和执行技术,以检测并阻止不法分子试图违反我们的政策,利用我们的工具对儿童进行性化。这包括使用我们自己的模型来更快地检测可能的滥用行为,以及在行业范围内协作实施安全措施。我们使用哈希匹配技术来识别我们内部儿童安全团队或来自Thorn已验证资料库中标记的已知CSAM。我们还使用Thorn的CSAM内容分类器来分析上传到我们产品中的内容,以检测潜在的新型CSAM。

我们的儿童安全团队将所有CSAM的实例(包括上传和请求)报告给NCMEC,并立即封禁相关账户。当有证据表明虐待行为仍在持续时,我们的团队会进行进一步调查,向NCMEC提交补充报告以便优先处理。

AI工具作为新型滥用模式的推动者——以及我们的应对措施

作为我们持续安全工作的一部分,并帮助其他致力于保护儿童的研究人员和组织,我们正在分享我们观察到和阻止的滥用模式,以便业内其他人士能够从我们的经验中受益。除了简单地提示模型创建CSAM或对未成年人的性化图像外,我们还看到了需要新颖应对措施的新型滥用模式的出现。

ChatGPT允许用户上传图像、视频和文件,以便模型可以与内容进行交互和分析。我们观察到一些用户上传CSAM并要求模型生成所描述内容的详细描述。Thorn的CSAM分类器和哈希匹配技术使我们能够检测到这些上传内容中的潜在CSAM,并阻止模型响应请求。

在某些情况下,我们遇到用户试图引诱模型参与虚构的性角色扮演场景,同时将CSAM作为叙事的一部分上传。我们也看到用户试图引诱模型编写涉及未成年人处于性不当和/或虐待情境的虚构故事——这违反了我们的儿童安全政策,我们会迅速采取行动检测这些企图并封禁相关账户。我们的系统旨在检测和阻止这些企图,涉及明显CSAM的行为账户将被封禁并报告给NCMEC。

我们对这些类型的滥用行为予以高度重视,虽然我们认识到即使是最先进的系统也并非万无一失,但我们正在不断完善我们的方法来预防此类滥用。我们应对这些场景的方法是多方面的。除了提示层面的检测外,我们还采用上下文感知分类器、滥用监控以及内部人工专家审查(只有在分类器标记出潜在滥用时才会发生)相结合的方式,以确保我们的模型对这些滥用形式具有鲁棒性。所有这些信息都安全地保存在内部,仅供负责任团队中受过培训的专家访问。此外,我们还有内部的儿童安全领域主题专家,协助我们持续完善安全保障措施。

倡导有利于政府与行业合作打击滥用的公共政策

在美国,拥有或创建CSAM是违法的。在开发AI系统的背景下,这意味着使用CSAM对AI模型进行红队测试(red team)——即使是模拟的——也是非法的。红队测试是指对AI模型进行压力测试以识别漏洞、弱点或意外行为的做法。虽然禁止拥有和创建CSAM是为了保护儿童,但这确实给我们在努力彻底测试和验证旨在打击CSAM的安全措施方面增加了一层额外的难度。

这就是为什么我们希望看到政府采纳公共政策框架,促进技术公司、执法部门和倡导组织之间建立强有力的伙伴关系,以保护儿童并促进安全可靠的在线环境。这就是为什么我们支持纽约州的《儿童性虐待材料预防法》等法案。该立法将为负责任的报告、合作以及旨在检测、分类、监控和减轻有害AI生成内容的主动行动提供明确的法定保护。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区