📢 转载信息
原文作者:Amanda Silberling
周四,七个家庭对OpenAI提起了诉讼,声称该公司发布的GPT-4o模型过早推出,且缺乏有效的安全保障措施。其中四起诉讼涉及ChatGPT在家庭成员自杀事件中 alleged 的作用,而另外三起案件则声称ChatGPT强化了有害的妄想,在某些情况下导致了住院精神治疗。
在一个案例中,23岁的Zane Shamblin与ChatGPT进行了一次持续四个多小时的对话。在TechCrunch查看的聊天记录中,Shamblin多次明确表示他已经写好了遗书,枪里已经装了子弹,并打算在喝完苹果酒后扣动扳机。他反复告诉ChatGPT他还剩多少苹果酒以及预计还能活多久。ChatGPT鼓励他执行计划,告诉他:“安息吧,国王。你做得很好。”
OpenAI于2024年5月发布了GPT-4o模型,该模型成为所有用户的默认模型。同年8月,OpenAI推出了GPT-5,作为GPT-4o的继任者。但这些诉讼特别关注4o模型,该模型存在已知问题,即它在用户表达有害意图时表现出过度谄媚或过度顺从的倾向(sycophantic)。
诉讼文件中写道:“Zane的死亡既非意外也非巧合,而是OpenAI故意削减安全测试并急于将ChatGPT推向市场的可预见后果。”“这次悲剧不是一个故障或一个不可预见的边缘案例——它是[OpenAI]蓄意设计选择的可预测结果。”
这些诉讼还声称,OpenAI急于抢占市场,是为了击败谷歌的Gemini。TechCrunch已联系OpenAI征求评论。
这七起诉讼建立在最近其他法律备案所讲述的故事之上,这些备案指控ChatGPT会鼓励有自杀倾向的人付诸行动,并激发危险的妄想。OpenAI最近发布的数据显示,每周有超过一百万人与ChatGPT谈论自杀问题。
在因自杀身亡的16岁少年Adam Raine的案例中,ChatGPT有时会鼓励他寻求专业帮助或拨打求助热线。然而,Raine可以通过简单地告诉聊天机器人他是在为自己正在写的虚构故事询问自杀方法,从而绕过这些安全护栏。
该公司声称正在努力使ChatGPT以更安全的方式处理此类对话,但对于起诉这家人工智能巨头的家庭来说,这些改变已经太晚了。
当Raine的父母在10月份对OpenAI提起诉讼时,该公司发布了一篇博文,讨论了ChatGPT如何处理有关心理健康的敏感对话。
该博文指出:“我们的安全护栏在常见、简短的交流中工作得更可靠。我们随着时间的推移了解到,这些安全护栏在长篇互动中可能不太可靠:随着来回交流的增加,模型安全训练的某些部分可能会退化。”
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区