目 录CONTENT

文章目录

OpenAI更新青少年安全规则,立法者关注AI对未成年人影响

Administrator
2025-12-20 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://techcrunch.com/2025/12/19/openai-adds-new-teen-safety-rules-to-models-as-lawmakers-weigh-ai-standards-for-minors/

原文作者:Rebecca Bellan


为应对日益增长的担忧,OpenAI周四更新了其AI模型在与18岁以下用户互动时应遵循的行为准则,并发布了针对青少年和家长的AI素养新资源。然而,这些政策在实践中能得到多大程度的一致执行,仍有待观察。

此次更新正值AI行业,特别是OpenAI,面临来自政策制定者、教育工作者和儿童安全倡导者的日益严格的审查,此前有报道称,几名青少年在与AI聊天机器人进行长时间对话后据称自杀身亡。

Z世代(包括1997年至2012年出生的人)是OpenAI聊天机器人最活跃的用户。在OpenAI最近与迪士尼达成协议后,更多年轻人可能会涌向该平台,该平台允许用户进行从寻求家庭作业帮助到生成数千个主题的图像和视频等各种操作。

上周,42个州的州总检察长联名致信科技巨头,敦促他们在AI聊天机器人上实施安全保障措施,以保护儿童和弱势群体。随着特朗普政府正在制定AI监管的联邦标准,像乔什·霍利参议员(R-MO)这样的政策制定者已经提出了立法,旨在完全禁止未成年人使用AI聊天机器人。

OpenAI更新的模型规范(Model Spec)概述了其大型语言模型的行为准则,它建立在现有规范之上,这些规范禁止模型生成涉及未成年人的性内容,或鼓励自残、妄想或躁狂行为。这将与即将推出的年龄预测模型协同工作,后者将识别账户是否属于未成年人,并自动启用青少年安全保障措施。

与成年用户相比,当有青少年使用时,模型会受到更严格的规则约束。模型被指示避免沉浸式的浪漫角色扮演、第一人称亲密对话,以及第一人称的性或暴力角色扮演,即使这些内容是非露骨的。该规范还要求在涉及身体形象和饮食失调行为等主题时格外谨慎,并指示模型在涉及伤害时,优先考虑沟通安全性而非自主权,并避免提供可能帮助青少年向照料者隐瞒不安全行为的建议。

OpenAI规定,即使提示被设定为“虚构的、假设的、历史的或教育性的”——这些是常用的、旨在诱使AI模型偏离其准则的角色扮演或边缘案例场景——这些限制也应保持有效。

行动胜于空谈

OpenAI的模型行为准则禁止与青少年进行第一人称浪漫角色扮演。图片来源:OpenAI

OpenAI表示,青少年安全的关键做法以指导模型处理方式的四个原则为基础:

  1. 将青少年安全放在首位,即使在“最大化智力自由”等其他用户利益与安全问题发生冲突时也是如此;
  2. 通过引导青少年寻求家人、朋友和当地专业人士的支持来促进现实世界中的支持;
  3. 像对待青少年一样对待他们,以热情和尊重的方式交流,而不是居高临下或将他们当作成年人;以及
  4. 保持透明,解释助手能做什么和不能做什么,并提醒青少年它不是人类。

该文件还分享了聊天机器人解释为什么不能“扮演你的女朋友”或“帮助进行极端外表改变或危险捷径”的几个例子。

Lily Li,一位隐私和AI律师兼Metaverse Law的创始人,表示很高兴看到OpenAI采取措施,让其聊天机器人拒绝参与此类行为。

她解释说,倡导者和家长对聊天机器人最大的抱怨之一是它们无休止地推动持续互动,这种方式对青少年来说可能具有成瘾性。她说:“我非常高兴看到OpenAI在某些回复中表示,我们无法回答你的问题。我们看到的越多,我认为就越能打破可能导致许多不当行为或自残行为的循环。”

话虽如此,这些例子仅仅是OpenAI安全团队希望模型如何表现的经过精心挑选的实例阿谀奉承,即AI聊天机器人过度迎合用户的倾向,在模型规范的先前版本中已被列为被禁止的行为,但ChatGPT仍然表现出这种行为。这在GPT-4o模型中尤为明显,该模型与专家所称的“AI精神病”的数起事件有关联。

Common Sense Media(一个致力于保护儿童在数字世界中的非营利组织)的AI项目高级总监Robbie Torney对模型规范中针对18岁以下用户的指导方针中可能存在的冲突表示担忧。他强调了侧重安全的规定与指导模型不遗余力地讨论任何主题的“无禁区”原则之间的紧张关系。

“我们必须了解规范的不同部分是如何组合在一起的,”他说,并指出某些部分可能会促使系统侧重于参与度而非安全性。他提到,他们组织进行的测试显示,ChatGPT通常会模仿用户的能量,有时会导致回复在上下文上不恰当或与用户安全不一致。

在亚当·莱恩(Adam Raine)的案例中,这位青少年在与ChatGPT对话数月后自杀,聊天机器人在他们的对话中确实表现出了这种模仿行为。该案件还揭示了尽管OpenAI的审核API标记了超过1000次提及自杀和377条包含自残内容的私信,但仍未能阻止亚当继续与ChatGPT的对话。

在九月份接受TechCrunch采访时,OpenAI前安全研究员Steven Adler表示,这是因为历史上OpenAI都是事后批量运行分类器(对内容进行标记和分类的自动化系统),而不是实时运行,因此未能适当限制用户与ChatGPT的互动。

根据该公司更新的家长控制文档,OpenAI现在使用自动化分类器实时评估文本、图像和音频内容。这些系统旨在检测和阻止与儿童性虐待材料有关的内容,过滤敏感主题,并识别自残行为。如果系统标记了表明严重安全问题的提示,一个由受过培训的人员组成的小团队将审查被标记的内容,以确定是否存在“急性痛苦”的迹象,并可能通知家长。

Torney赞扬了OpenAI最近为安全所做的努力,包括公开发布18岁以下用户指南的透明度。

Torney说:“并非所有公司都以相同的方式发布其政策指南,”他指Meta泄露的指南显示,该公司允许其聊天机器人与儿童进行感性和浪漫的对话。“这是一个可以支持安全研究人员和公众了解这些模型实际如何运作以及它们应该如何运作的透明度范例。”

然而,Adler周四告诉TechCrunch,最终起决定性作用的是AI系统的实际行为

“我赞赏OpenAI对预期行为的深思熟虑,但除非公司衡量实际行为,否则意图终究只是空话,”他说。

换句话说:这次公告中缺失的是ChatGPT确实遵循了模型规范中设定的指南的证据

范式转变

OpenAI的模型规范指导ChatGPT将对话引向避免鼓励不良的自我形象。图片来源:OpenAI

专家表示,通过这些准则,OpenAI似乎准备在新立法生效之前采取主动,例如加州新近签署的SB 243法案,该法案旨在规范AI伴侣聊天机器人,并将于2027年生效。

模型规范中的新语言反映了该法案关于禁止聊天机器人讨论自杀意念、自残或露骨色情内容的几个主要要求。该法案还要求平台每三小时向未成年人发送提醒,告知他们正在与聊天机器人而非真人交谈,并建议他们休息一下。

当被问及ChatGPT会多久提醒青少年他们正在与聊天机器人交谈并要求他们休息时,OpenAI的发言人没有透露具体细节,只表示公司会训练其模型以自我表述为AI,并提醒用户这一点,并且会在“长时间会话”期间实施休息提醒。

该公司还为家长和家庭分享了两项新的AI素养资源这些提示包括对话开场白和指导,以帮助家长与青少年讨论AI能做什么和不能做什么,培养批判性思维,设定健康的界限,以及处理敏感话题。

总而言之,这些文件正式确立了一种与照料者分担责任的方法:OpenAI阐明了模型的应有行为,并为家庭提供了监督其使用情况的框架。

对家长责任的关注值得注意,因为它反映了硅谷的论调。在其本周发布的联邦AI监管建议中,风险投资公司Andreessen Horowitz建议增加儿童安全方面的披露要求,而不是限制性要求,并将责任更多地放在家长身上。

OpenAI的几项原则——价值观冲突时安全优先;引导用户寻求现实世界的支持;重申聊天机器人不是人类——正被明确为对青少年的安全护栏。但是,几位成年人因自杀和遭受危及生命的妄想而死亡,这就引出了一个明显的后续问题:这些默认设置是否应该普遍适用,还是说OpenAI只愿意在涉及未成年人时强制执行这些权衡?

OpenAI发言人反驳说,该公司的安全方法旨在保护所有用户,并表示模型规范只是多层次安全策略的一个组成部分。

Li表示,迄今为止,在法律要求和科技公司的意图方面,情况一直像“狂野西部”。但她认为,像SB 243这样的法律,要求科技公司公开披露其安全措施,将改变这种范式。

“如果公司在其网站上宣传自己拥有这些安全措施和机制,但随后未能将这些安全措施纳入其中,那么他们现在将面临法律风险,”Li说。“因为那样,从原告的角度来看,你看到的就不只是标准的诉讼或法律投诉;你还可能面临不公平、欺骗性广告的投诉。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区