📢 转载信息
原文链接:https://www.wired.com/story/openai-research-lead-mental-health-quietly-departs/
原文作者:Maxwell Zeff
据WIRED获悉,一位帮助制定ChatGPT应对经历心理健康危机的用户响应策略的OpenAI安全研究主管,在上个月已向公司内部宣布离职。这位名为安德里亚·瓦洛内(Andrea Vallone)的模型策略安全研究团队负责人,定于今年年底离开OpenAI。
OpenAI发言人Kayla Wood证实了瓦洛内的离职。Wood表示,OpenAI正在积极寻找替代人选,在此期间,瓦洛内的团队将直接向公司安全系统主管Johannes Heidecke汇报。
瓦洛内的离职正值OpenAI因其旗舰产品如何应对处于困境中的用户而面临日益严格的审查之际。最近几个月,有几起针对OpenAI的诉讼被提起,指控用户对ChatGPT产生了不健康的依恋。一些诉讼声称,ChatGPT导致了心理健康崩溃或鼓励了自杀倾向。
在这种压力下,OpenAI一直在努力理解ChatGPT应如何处理陷入困境的用户并改进聊天机器人的响应。模型策略是领导这项工作的团队之一,它牵头了一份10月份的报告,详细介绍了公司在这方面的进展以及与170多名心理健康专家的磋商情况。
在报告中,OpenAI表示,每周可能有数十万的ChatGPT用户表现出躁狂或精神病危机的迹象,并且有超过一百万人“进行了包含潜在自杀计划或意图明确指标的对话”。OpenAI在报告中称,通过对GPT-5的更新,公司能够将这些对话中不良回应的比例降低65%到80%。

瓦洛内在一篇LinkedIn帖子中写道:“在过去的一年里,我领导了OpenAI关于一个几乎没有既定先例的问题的研究:当模型遇到情绪过度依赖或心理健康困扰的早期迹象时,它们应该如何回应?”
瓦洛内没有回应WIRED的置评请求。
| 有线索? |
|---|
| 您是想谈论正在发生的事情的现任或前任研究人员吗?我们很想听听您的意见。请使用非工作电话或电脑,通过Signal联系记者(mzeff.88)。 |
让ChatGPT在聊天时令人愉快,但又不过分奉承,是OpenAI的一个核心矛盾。该公司正积极努力扩大ChatGPT的用户群,目前每周用户超过8亿人,以与谷歌、Anthropic和Meta的人工智能聊天机器人竞争。
在OpenAI于8月发布GPT-5后,用户进行了抵制,他们认为这款新模型“出奇地冷漠”。在ChatGPT的最新更新中,该公司表示,在保持聊天机器人“温暖”的同时,显著降低了其谄媚性。
瓦洛内的离职发生在8月份对另一个专注于ChatGPT对困境用户响应的团队——模型行为团队——进行重组之后。该团队的前领导者Joanne Jang离职,成立了一个探索新颖人机交互方法的新团队。其余的模型行为人员被划归到后期训练负责人Max Schwarzer手下。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区