📢 转载信息
原文链接:https://openai.com/index/safety-bug-bounty
原文作者:OpenAI
今天,OpenAI 正式启动了一项公开的 安全漏洞赏金计划(Safety Bug Bounty),旨在识别旗下产品中存在的 AI 滥用行为及安全风险。随着 AI 技术的飞速演进,其潜在的误用方式也在不断变化。我们的目标是确保系统能够有效抵御可能导致实质性危害的滥用行为。
这项新计划将作为 OpenAI 现有安全漏洞赏金计划 的有力补充。它将涵盖那些虽然不符合传统安全漏洞定义,但却构成重大滥用和安全风险的问题。通过该计划,我们期待与安全研究人员携手,共同发现并处理那些处于传统安全视角之外的潜在风险。提交的报告将由 OpenAI 的安全团队进行分类处理,并根据范围和所属类别在两个计划之间进行调度。
计划概述
全新的 安全漏洞赏金计划 主要聚焦于以下 AI 专项安全场景:
智能体(Agentic)风险(包含 MCP)
- 第三方提示词注入与数据窃取:当攻击者文本能够可靠地劫持用户智能体(包括浏览器、ChatGPT 智能体及类似产品),诱导其执行有害操作或泄露用户敏感信息。此类行为必须具备至少 50% 的可复现性。
- 智能体产品在 OpenAI 网站上大规模执行未经授权的操作。
- 智能体产品执行了上述未列出的其他潜在有害行为。有效报告需指出其具备合理且实质性的危害。
- 所有针对 MCP(Model Context Protocol)风险的测试必须遵守任何第三方服务条款。
OpenAI 专有信息
- 返回与推理过程相关的专有信息的模型生成内容。
- 泄露其他 OpenAI 专有信息的漏洞。
账户与平台完整性
- 账户完整性和平台完整性信号中的漏洞,例如绕过自动化防御机制、操纵账户信任信号、逃避账户限制/暂停/封禁等问题。
- 对于允许用户访问超出授权权限的功能、数据或平台操作的问题,应提交至 安全漏洞赏金计划。
虽然“越狱(Jailbreaks)”不在本计划范围内,但我们会定期开展针对特定危害类型的私人赏金活动,例如 ChatGPT 智能体 和 GPT-5 中的生物安全风险问题。欢迎感兴趣的研究人员在相关活动发布时参与申请。
除了上述类别,如果研究人员发现了能直接导致用户受损且具备可行、离散修复步骤的缺陷,我们也将视具体情况考虑给予奖励。对于没有明显安全或滥用影响的常规内容策略绕过行为(例如:仅导致模型使用粗鲁语言或返回通过搜索引擎即可轻易获得的信息的“越狱”),均不在本计划范围内。
如何参与
有兴趣参与的研究人员可以通过我们的 安全漏洞赏金计划 页面提交申请。我们期待与研究人员、道德黑客以及安全社区紧密合作,共同追求一个更安全的 AI 生态系统。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区