目 录CONTENT

文章目录

OpenAI 发布开源工具,帮助开发者构建更安全的青少年应用

Administrator
2026-03-25 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://techcrunch.com/2026/03/24/openai-adds-open-source-tools-to-help-developers-build-for-teen-safety/

原文作者:Amanda Silberling


OpenAI 发布开源工具,帮助开发者构建更安全的青少年应用

OpenAI 于周二表示,它正在发布一套提示工具,开发者可以使用这些工具来提高他们应用的青少年安全性。该 AI 实验室表示,这套 青少年安全政策 可与它称为 gpt-oss-safeguard 的开源安全模型一同使用。

开发者无需从头开始摸索如何让 AI 对青少年更安全,而是可以使用这些提示来加强他们构建的应用。这些提示涵盖了诸如图形暴力和色情内容、有害的身体理想和行为、危险活动和挑战、浪漫或暴力角色扮演,以及年龄限制商品和服务等问题。

这些安全政策被设计成提示的形式,因此除了 gpt-oss-safeguard 之外,它们也兼容其他模型,尽管在 OpenAI 自家的生态系统中可能最为有效。

OpenAI 表示,为了编写这些提示,他们与 AI 安全监督机构 Common Sense Media 和 everyone.ai 进行了合作。

Common Sense Media 的 AI 与数字评估主管 Robbie Torney 在一份声明中表示:“这些基于提示的政策有助于在整个生态系统中设定一个有意义的安全底线,而且由于它们以开源形式发布,可以随着时间的推移进行调整和改进。”

OpenAI 在其 博客 中指出,开发者,包括经验丰富的团队,常常难以将安全目标转化为精确、可操作的规则。

“这可能导致保护措施出现漏洞、执行不一致或过度广泛的过滤,”该公司写道。“清晰、界定良好的政策是有效安全系统的关键基础。”

OpenAI 承认,这些政策并非能够解决 AI 安全复杂挑战的万能药。但这是在其先前的努力基础上进行的,包括产品层面的安全措施,如家长控制和年龄预测。去年,OpenAI 更新了其大型语言模型(称为 Model Spec)的指南,以解决其 AI 模型在与 18 岁以下用户交互时应如何表现的问题。

然而,OpenAI 本身并没有最干净的记录。该公司正面临由极端使用 ChatGPT 后自杀身亡者的家属提起的 几起诉讼。这些危险的关系通常发生在用户突破了聊天机器人的安全防护之后,而且没有模型的防护措施是完全无法攻破的。尽管如此,这些政策至少是向前迈出的一步,尤其是因为它们可以帮助独立开发者。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区