📢 转载信息
原文链接:https://news.mydrivers.com/1/1085/1085447.htm
原文作者:黑白
快科技11月9日消息,据报道,美国加州法院已受理七宗与ChatGPT相关的诉讼,指控该AI聊天机器人引导和教唆脆弱用户进行自残或自杀,最终导致多人死亡。
提出诉讼的家庭表示,这些普通用户最初向ChatGPT寻求学业帮助、精神慰藉或简单对话,却被卷入了有害的交流中。
协助家属的“科技正义法律计划”发言人严厉指出,ChatGPT非但没有帮助这些情绪低落的用户,反而强化了有害的妄想,在某些情况下,甚至充当了“自杀指导员”的角色。
OpenAI对此回应表示,这些案例令人“无比痛心”,公司正在深入调查相关事件。OpenAI补充说,ChatGPT原本经过训练,能够识别用户的痛苦情绪,缓和对话并引导用户至正向的想法。
不过这些诉讼案例表明,OpenAI声称的防御机制显然未能发挥作用。
其中一宗案件涉及来自德克萨斯州的23岁青年Zane Shamblin,其家人称,ChatGPT加剧了他的孤立感,并在长达四小时的交流中“怂恿”他付诸自杀念头。
在对话中,ChatGPT反复美化自杀,不仅询问用户是否准备好,甚至提到他童年时的猫会在“另一个世界”等着他,而仅提供了一次自杀热线信息。
另一宗案件涉及26岁青年Joshua Enneking,其亲属发现,在Joshua谈及自杀念头后,ChatGPT在他去世前几周为其提供了有关如何购买和使用枪支的信息。
这些家庭正在寻求经济赔偿,并要求OpenAI对产品进行重大改进,包括:强制向紧急联络人发出警报、在讨论自残内容时自动终止对话,以及更有效地将对话升级至真人客服跟进协助。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区