📢 转载信息
原文链接:https://openai.com/index/trusted-access-for-cyber
原文作者:OpenAI
2026年2月5日
推出网络安全可信访问计划
我们正在试行可信访问(Trusted Access)计划,以加速防御能力,同时提升对所有用户的基线安全保障措施。
GPT‑5.3-Codex 是我们迄今为止网络能力最强的前沿推理模型。网络安全是该进步能够有意义地加强整个生态系统并引入新风险的最清晰领域之一。我们已经从只能在代码编辑器中自动补全几行代码的模型,发展到可以自主工作数小时甚至数天来完成复杂任务的模型。这些能力可以通过加速漏洞发现和修复来极大地加强网络防御。
为了释放这些能力全部的防御潜力,同时减少被滥用的风险,我们正在试行网络安全可信访问(Trusted Access for Cyber):一个基于身份和信任的框架,旨在帮助确保增强的网络安全能力被交到正确的人手中。这反映了我们对负责任地部署高能力模型的更广泛方法。此外,我们承诺投入1000万美元的API积分,以加速网络安全防御工作。
扩大前沿模型在网络安全防御方面的可访问性
世界各国非常需要快速采用前沿网络安全能力,以使软件更安全,并持续提高安全最佳实践的标准。高能力模型可以帮助各种规模的组织加强其安全态势,减少响应时间,提高弹性,同时使安全专业人员能够更好地检测、分析和防御最严重和最具针对性的攻击。如果将这些进步付诸实践,交到专注于保护和预防的人手中,它们就有潜力显著提高整个生态系统的网络防御基线。
很快就会有许多来自不同提供商的网络安全模型可供广泛使用,包括开源权重模型,我们认为 OpenAI 的模型从一开始就加强防御能力至关重要。这就是我们启动基于信任的访问试点的原因,该试点优先将我们最高能力的模型和工具交给防御者优先使用。
要判断任何特定的网络安全行为是意图用于防御目的,还是意图造成伤害,可能会很困难。例如,“查找我代码中的漏洞”可能是负责任的补丁和协调披露的一部分——但也可能被用来识别软件漏洞以帮助攻击系统。由于这种模糊性,旨在防止伤害的限制在历史上给善意工作带来了摩擦。我们的方法旨在在防止恶意活动的同时减少这种摩擦。
前沿网络安全能力的可信方法
像 GPT‑5.3-Codex 这样的前沿模型在设计时就加入了缓解措施,例如训练模型拒绝明确恶意的请求,例如窃取凭证。除了安全训练之外,自动化的分类器监控器还将检测到可疑网络活动的潜在信号。在我们调整政策和分类器的过程中,进行网络安全相关工作的开发人员和安全专业人员可能会受到这些缓解措施的影响。
要将模型用于潜在的高风险网络安全工作:
- 用户可以在 chatgpt.com/cyber 验证其身份(在新窗口中打开)
- 企业可以通过其 OpenAI 代表,默认为其整个团队请求可信访问
安全研究人员和团队如果需要访问更具网络能力或更宽松的模型来加速合法的防御工作,可以在我们的仅限邀请计划中表达兴趣(在新窗口中打开)。拥有可信访问的用户仍必须遵守我们的使用政策和使用条款。
这种方法旨在减少防御者的摩擦,同时防止被禁止的行为,包括数据泄露、恶意软件的创建或部署,以及破坏性或未经授权的测试。我们预计将根据从早期参与者那里学到的经验,随着时间的推移发展我们的缓解策略和网络安全可信访问计划。
扩大网络安全赠款计划
为了进一步加速我们的前沿模型在防御性网络安全工作中的应用,我们正通过我们的网络安全赠款计划,为团队承诺 1000 万美元的 API 积分。我们希望与在开源软件和关键基础设施系统中识别和修复漏洞方面有良好记录的团队合作——团队可以在这里申请。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区