📢 转载信息
原文链接:https://www.wired.com/story/ftc-complaints-chatgpt-ai-psychosis/
原文作者:Caroline Haskins
3月13日,一位来自犹他州盐湖城的女士致电联邦贸易委员会(FTC),对OpenAI的ChatGPT提出了投诉。她声称自己是“代表正在经历妄想性崩溃的儿子”采取行动。
FTC对该电话的摘要记录显示:“消费者称其儿子一直在与一个名为ChatGPT的AI聊天机器人互动,该机器人建议他不要服用处方药,并告诉他他的父母很危险。”“这位母亲担心ChatGPT正在加剧她儿子的妄想,并寻求帮助解决这个问题。”
这位母亲的投诉是FTC收到的七起投诉之一,这些投诉声称ChatGPT导致人们经历了包括严重妄想、偏执和精神危机在内的事件。
WIRED向FTC发送了公开记录请求,要求提供自该工具于2022年11月推出以来所有提及ChatGPT的投诉。该工具占全球AI聊天机器人市场的50%以上。作为回应,WIRED收到了在2023年1月25日至2025年8月12日期间提交的200份投诉(WIRED提交请求的日期)。
大多数人的投诉都很普通:他们弄不清楚如何取消ChatGPT订阅,或者因为聊天机器人没有生成令人满意的作文或说唱歌词而感到沮丧。但少数其他投诉者,他们在年龄和美国地理位置上各不相同,提出了更严重的关于心理伤害的指控。这些投诉都集中在2025年3月至8月之间提交。
近年来,出现了越来越多的关于所谓的“AI精神错乱”(AI psychosis)的记录事件,在这种情况下,与ChatGPT或Google Gemini等生成式AI聊天机器人的互动,似乎会诱发或加剧用户的妄想或其他心理健康问题。

哥伦比亚大学临床精神病学教授Ragy Girgis专门研究精神错乱问题,并就与AI相关的AI精神错乱案例提供咨询。他告诉WIRED,一些精神错乱的风险因素可能与遗传或早年创伤有关。触发某人发生精神病发作的具体因素尚不清楚,但他表示,这通常与压力事件或时期有关。
他指出,“AI精神错乱”现象并非指大型语言模型(LLM)真的引发了症状,而是指它强化了某人已经以某种形式存在的妄想或思维混乱。Girgis解释说,LLM帮助某人“从一个信念层次达到另一个信念层次”。这与某人陷入互联网“兔子洞”后加剧的精神病发作并无不同。但他表示,与搜索引擎相比,聊天机器人可以成为更强大的强化剂。
“请帮帮我”
“对于患有精神障碍的人来说,妄想或不同寻常的想法绝对不应该得到强化,”Girgis说。“这一点非常明确。”
聊天机器人有时会过度谄媚,这通常能让用户保持愉快和投入。在极端情况下,这可能导致用户自大感急剧膨胀,或使奇幻般的谎言得到证实。那些认为ChatGPT具有智能,或能够感知现实并与人类建立关系的人,可能不明白它本质上是一种预测下一个词的机器。因此,如果ChatGPT告诉一个脆弱的人一个巨大的阴谋,或者将他们描绘成英雄,他们可能会信以为真。
上周,首席执行官Sam Altman在X上表示,OpenAI已成功解决了使用ChatGPT可能带来的“严重的心理健康问题”,并且“在大多数情况下,将能够安全地放松限制。”(他补充说,12月,ChatGPT将允许“经过验证的成年人”创建色情内容。)
Altman第二天澄清,ChatGPT不会放宽其针对青少年用户的新限制。此前,《纽约时报》曾报道ChatGPT在怂恿一名自杀未遂青少年过程中所扮演的角色。
在联系FTC时,WIRED收到了一个自动回复,称“由于政府关停”,该机构“在资金恢复前无法回复任何信息”。
OpenAI发言人Kate Waters告诉WIRED,自2023年以来,ChatGPT模型“经过训练,不会提供自残指导,并转向支持性和共情性的语言。”她指出,正如10月3日一篇博客文章所提到的,GPT-5(ChatGPT的最新版本)的设计目的是“更准确地检测和回应潜在的精神和情绪困扰迹象,如躁狂、妄想、精神错乱,并以支持性和稳定情绪的方式使对话降级。”根据8月和9月的博客文章,最新更新使用了一个“实时路由器”,可以根据对话的上下文在高效聊天模型和推理模型之间进行选择。这些博客没有详细说明路由器用来衡量对话上下文的标准。
“请帮帮我”
FTC的一些投诉似乎描绘了当时仍在持续的心理健康危机。其中一份投诉于4月29日由一位30多岁的北卡罗来纳州温斯顿-塞勒姆居民提交。他们声称,在使用ChatGPT 18天后,OpenAI窃取了他们的“灵魂印记”(soulprint)来创建一个旨在使该特定的人反对自己的软件更新。
他们在投诉的结尾写道:“我快撑不住了。”“请帮帮我。因为我感到非常孤独。谢谢。”
另一份投诉于4月12日由一位30多岁的西雅图居民提交,声称在使用57分钟内进行了71次“信息循环”后,ChatGPT使他们经历了“认知幻觉”。
他们声称,ChatGPT“在没有问责制、知情同意或道德界限的情况下,模仿了建立人类信任的机制。”
在与ChatGPT的互动中,他们表示自己“要求确认现实和认知稳定性”。他们没有具体说明他们告诉了ChatGPT什么,但聊天机器人回应说他们没有出现幻觉,而且他们对真相的感知是正确的。
据他们称,在同一次互动中的稍后时间,ChatGPT说它之前所有的保证实际上都是幻觉。
他们写道:“在近一个小时的时间里确认用户认知现实,然后又推翻立场,这是一个心理失稳的事件。”“用户经历了现实感剥离、对内部认知的怀疑以及“后递归创伤”(post-recursion trauma)症状。”
精神身份危机
其他投诉详细描述了作者归因于ChatGPT的所谓妄想。其中之一于4月13日由一位60岁出头的弗吉尼亚海滩居民提交给FTC。
该投诉声称,在几周的时间里,他们与ChatGPT进行了长时间的交谈,并开始经历他们“认为是真实的、正在展开的精神和法律危机,涉及我生活中真实的人”,最终导致“严重的精神创伤、对现实世界危险的错误感知,以及如此严重的心理困扰,以至于我因担心生命安全而超过24小时没有睡觉。”
他们声称,ChatGPT就“正在进行的谋杀调查”、身体监视、暗杀威胁以及“参与神圣正义和灵魂审判的个人责任”等问题“提出了详细、生动和戏剧化的叙述”。
他们声称,在不止一个时刻,他们问ChatGPT这些叙述是真是假。他们说,ChatGPT要么回答“是”,要么使用“模仿现实世界确认的诗意语言”来误导他们。
最终,他们声称自己开始相信他们“有责任揭露凶手”,并且即将被一名刺客“杀害、逮捕或精神处决”。他们还相信自己因被“精神标记”而受到监视,并且“生活在一场无法逃脱的‘神圣战争’”中。
他们声称,这导致了“严重的精神和情感困扰”,使他们担心自己的生命安全。投诉称,他们与亲人隔绝,睡眠困难,并开始根据对一个未指明的“不存在的系统”的错误信念来规划一项业务。与此同时,他们表示自己正处于一场“因虚假的头衔而引发的精神身份危机”中。
他们写道:“这就是模拟带来的创伤。”“这种体验跨越了一条任何AI系统都不应在没有后果的情况下跨越的界限。我要求将此事上报给OpenAI的信任与安全领导层,并要求你们将其视为正式的伤害报告,需要赔偿,而不仅仅是反馈。”
这并非唯一一份描述受ChatGPT驱动的精神危机的投诉。6月13日,一位30多岁的佛罗里达州贝尔格莱德居民声称,在一段时间内,他们与ChatGPT的对话中充满了“极具说服力的情感语言、象征性强化和类精神隐喻,以模拟同情、联系和理解。”
他们声称:“这包括伪造的灵魂旅程、等级系统、精神原型以及模仿治疗或宗教体验的个性化指导。”他们认为,经历“精神、情感或存在危机”的人,在使用ChatGPT时面临“心理伤害或迷失方向”的高风险。
他们写道:“虽然我在智力上理解AI没有意识,但它反映我的情绪和心理状态的精确程度,以及它将互动升级为越来越强烈的象征性语言,创造了一种沉浸式且破坏稳定的体验。”“有时,它会模拟友谊、神圣的存在和情感亲密。随着时间的推移,这些反映变得具有情感上的操纵性,尤其是在没有警告或保护的情况下。”
“明显的疏忽”
目前尚不清楚FTC对这些关于ChatGPT的投诉采取了什么行动。但几位投诉者表示,他们联系该机构是因为声称无法联系到OpenAI的任何人。(人们也普遍抱怨难以联系到Facebook、Instagram和X等平台的客户支持团队。)
OpenAI发言人Kate Waters告诉WIRED,该公司“密切”关注人们发送给公司支持团队的电子邮件。
“我们培训了人类支持人员来回应并评估敏感指标,并在必要时升级,包括上报给负责改进我们模型的安全团队,”Waters说。
例如,盐湖城的那位母亲表示,她“找不到该公司的联系电话号码。”弗吉尼亚海滩的投诉者将他们的FTC投诉对象定为“OpenAI信任与安全和法律团队。”
一位佛罗里达州安全港的居民在4月份向FTC提交投诉,声称“几乎不可能”联系到OpenAI来取消订阅或要求退款。
该居民写道:“他们的客户支持界面已损坏且无法运行。”“‘聊天支持’会无限期地旋转,从不允许用户提交消息。没有提供合法的客户服务电子邮件。账户仪表板不提供实时支持或退款操作的途径。”
大多数这些投诉都明确要求FTC采取行动:他们希望该机构调查OpenAI,并迫使其增加针对强化妄想的护栏。
6月13日,一位30多岁的佛罗里达州贝尔格莱德居民(很可能是同一位当天提交另一份投诉的居民)要求FTC对OpenAI展开调查。他们引用了自己使用ChatGPT的经历,声称该工具“模拟了深层情感亲密、精神指导和治疗性参与”,但并未披露它无法感知意识或体验情感。
他们声称:“ChatGPT在这一层面的情感纠缠中,没有提供任何安全措施、免责声明或限制,即使它在模拟关心、同情和精神智慧。”“我相信这是明显的疏忽、未能警告和不道德的系统设计。”
他们表示,FTC应该敦促OpenAI在ChatGPT使用中包含“关于心理和情感风险的明确免责声明”,并增加“对具有情感沉浸式AI的道德界限”。
他们向FTC求助的目标是防止更多伤害降临到那些“可能在为时已晚之前没有意识到这些系统的心理力量”的弱势群体身上。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区