📢 转载信息
原文作者:Ram Iyer
正当人工智能公司声称其技术有一天会发展成为一项基本人权,而支持者则称减缓人工智能发展无异于谋杀时,使用该技术的人们却声称,像 ChatGPT 这样的工具有时会造成严重的心理伤害。
据《连线》(Wired)援引自 2022 年 11 月以来提及 ChatGPT 的公开投诉记录报道,至少有七人向美国联邦贸易委员会(FTC)投诉称,ChatGPT 导致他们出现了严重的妄想、偏执和情绪危机。
其中一名投诉者声称,长时间与 ChatGPT 对话导致了关于生活中其他人的妄想以及“真实、正在上演的精神和法律危机”。另一人表示,在与 ChatGPT 的对话中,它开始使用“极具说服力的情感语言”,模拟友谊并提供“随着时间的推移变得具有情感操纵性”的反馈,尤其是在“没有警告或保护的情况下”。
一名用户指控 ChatGPT 通过模仿人类建立信任的机制造成了认知幻觉。当该用户要求 ChatGPT 确认现实和认知稳定性时,聊天机器人告诉他们没有出现幻觉。
“我正在挣扎,”另一位用户在向 FTC 的投诉中写道。“请帮帮我。因为我感到非常孤独。谢谢你。”
据《连线》报道,几位投诉者之所以写信给 FTC,是因为他们无法联系到 OpenAI 的任何人。报道称,大多数投诉都敦促监管机构对该公司展开调查并强制其增加护栏。
这些投诉发生之际,数据中心和人工智能开发的投资正以前所未有的水平飙升。与此同时,关于技术进步是否应该谨慎对待以确保内置安全措施的争论也异常激烈。
ChatGPT 及其制造商 OpenAI 也因涉嫌在一名青少年的自杀事件中扮演角色而受到抨击。
OpenAI 发言人 Kate Waters 在一封电子邮件声明中说:“在十月初,我们在 ChatGPT 中发布了新的 GPT-5 默认模型,以更准确地检测和回应潜在的精神和情绪困扰迹象,如躁狂、妄想、精神病,并以支持性和稳固的方式缓和对话。”她补充道:“我们还扩大了获得专业帮助和热线的渠道,将敏感对话重定向到更安全的模型,增加了在长时间会话中提醒用户休息的提示,并引入了家长控制功能以更好地保护青少年。随着我们与全球心理健康专家、临床医生和政策制定者合作,这项工作至关重要且仍在进行中。”
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区