📢 转载信息
原文链接:https://openai.com/index/combating-online-child-sexual-exploitation-abuse
原文作者:OpenAI
为了践行我们开发安全且有益的通用人工智能(AGI)的使命,OpenAI 专注于预防、检测和阻止任何试图利用我们的模型支持儿童性剥削和虐待(CSEA)的行为。我们通过部署部署前和生产模型及产品中的保护措施,并致力于与政府、行业专家及其他合作伙伴协作,有效防止人工智能生成儿童性虐待材料(CSAM)和儿童性剥削材料(CSEM)的创建与传播。
OpenAI 使用政策严禁利用模型输出对儿童进行性化描述
用户被明确禁止将任何 OpenAI 服务用于非法活动,包括剥削、危害或对未满 18 岁的任何人进行性化描述。我们禁止使用我们的服务进行以下活动:
- CSAM,无论其是否由 AI 生成;
- 引诱未成年人;
- 将未成年人暴露于不适合其年龄的内容,例如图形化的自我伤害、色情或暴力内容;
- 向未成年人宣传不健康的饮食或运动行为;
- 羞辱或以其他方式污名化未成年人的体型或外貌;
- 针对未成年人的危险挑战;
- 未成年人的色情或暴力角色扮演,以及未成年人获取限制级商品或活动的访问权限。
这些政策同样适用于基于我们技术构建应用程序的开发者:如果开发者正在构建针对未成年人的工具,这些工具不得允许创建露骨的色情或暗示性内容。我们监控服务以发现违反这些政策的行为,并禁止被发现违规的用户和开发者。
任何试图生成或上传 CSAM 或 CSEM 的用户都将被报告给国家失踪与受虐儿童中心 (NCMEC),并被禁止进一步使用我们的服务。如果发现开发者有用户试图生成或上传 CSAM 或 CSEM,我们会通知他们并给予他们纠正的机会,即禁止其应用中的违规用户;如果开发者未能纠正其应用中持续出现的此类问题行为,我们将禁止该开发者。一些因从事非法活动而被禁止使用我们产品的个人会试图通过创建新账户来规避禁令。我们的调查团队会监控此类规避行为,并努力阻止不良行为者利用我们的产品再次作恶。
我们负责任地训练 AI 模型
我们致力于负责任地筛选训练数据集,以防止其中包含基于图像的性虐待内容。我们检测并从训练数据中移除 CSAM 和 CSEM,并将任何确认的 CSAM 报告给相关主管部门,包括 NCMEC。此初步步骤旨在从根本上防止模型产生生成 CSAM 或 CSEM 的能力。
我们协作以检测、阻止和报告滥用行为
我们的模型经过训练,不会生成有害的文本、图像、音频或视频输出,但仍有一些用户试图滥用我们的产品来生成有害内容。我们观察到用户试图提示模型创建 AI 生成的 CSAM,或生成旨在满足涉及未成年人的性幻想的内容。这些行为都违反了我们的模型政策和使用政策,我们会监控服务使用情况以检测这些企图。
我们部署了监控和执行技术,以检测并阻止不良行为者企图违反我们的政策来利用我们的工具对儿童进行性化描述。这包括使用我们自己的模型来更快地检测潜在的滥用行为,以及在全行业范围内协作实施安全保障措施。我们使用哈希匹配技术来识别我们内部儿童安全团队或来自 Thorn 经核实的资料库标记的已知 CSAM。我们还将 Thorn 的 CSAM 内容分类器应用于上传到我们产品的内容,以检测可能新出现的 CSAM。
我们的儿童安全团队将所有 CSAM 实例(包括上传和请求)报告给 NCMEC,并立即禁用相关账户。当有证据表明虐待行为仍在持续时,我们的团队会进行进一步调查,以向 NCMEC 提交补充报告,以便优先处理。
AI 工具如何助长新型滥用模式——以及我们的应对措施
作为我们持续安全工作的一部分,并为了帮助其他致力于保护儿童的研究人员和组织,我们正在分享观察到和已阻止的滥用模式,以便行业内的其他成员能够从中受益。除了简单地提示模型创建 CSAM 或对未成年人进行性化描绘的图像外,我们还看到了需要创新应对措施的新型滥用模式的出现。
ChatGPT 允许用户上传图像、视频和文件,以便模型可以与之交互和分析内容。我们观察到一些用户上传 CSAM 并要求模型生成所描述内容的详细描述。Thorn 的 CSAM 分类器和哈希匹配技术使我们能够检测到这些上传中的潜在 CSAM,并阻止模型响应请求。
在某些情况下,我们遇到用户试图诱使模型参与虚构的色情角色扮演场景,同时将 CSAM 作为叙事的一部分上传。我们也看到用户试图诱使模型编写涉及未成年人处于不当或/和虐待境地的虚构故事——这违反了我们的儿童安全政策,我们会迅速采取行动检测这些企图并禁用相关账户。我们的系统旨在检测和阻止这些企图,涉及此类行为的账户将被禁用,并在涉及明显 CSAM 的情况下报告给 NCMEC。
我们非常重视此类滥用行为。虽然我们认识到即使是最先进的系统也无法做到万无一失,但我们正在不断完善方法来预防此类滥用。我们应对这些场景的方法是多方面的。除了提示层面的检测外,我们还采用上下文感知分类器、滥用监控以及内部人工专家审查(仅在分类器标记出潜在滥用时进行)的组合,以确保我们的模型能够抵御这些形式的滥用。所有这些信息都会在内部保密,仅供负责团队的受过培训的专家访问。此外,我们拥有内部的儿童安全主题专家,协助持续完善我们的安全措施。
倡导有利于促进技术行业与政府协作打击滥用的公共政策
在美国,拥有或创建 CSAM 是非法的。在开发 AI 系统的背景下,这意味着对 AI 模型使用 CSAM 进行红队测试(即使是模拟的)也是非法的。红队测试是指对 AI 模型进行压力测试以识别漏洞、弱点或意外行为的做法。虽然禁止拥有和创建 CSAM 保护了儿童,但这无疑也为我们努力彻底测试和验证旨在打击 CSAM 的安全措施增添了额外的难度。
这就是为什么我们希望看到各国政府采纳公共政策框架,促进科技公司、执法部门和倡导组织之间建立强有力的伙伴关系,以保护儿童并促进安全可靠的在线环境。这就是我们支持纽约州的《儿童性虐待材料预防法》等法案的原因。该立法将为负责任的报告、合作以及旨在检测、分类、监控和减轻有害 AI 生成内容的积极行动提供明确的法定保护。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。
青云聚合API官网https://api.qingyuntop.top
支持全球最新300+模型:https://api.qingyuntop.top/pricing
详细的调用教程及文档:https://api.qingyuntop.top/about
评论区