📢 转载信息
原文链接:https://www.wired.com/story/chatgpt-psychosis-and-self-harm-update/
原文作者:Louise Matsakis
有史以来第一次,OpenAI发布了一项粗略估计,即全球有多少ChatGPT用户在一周内可能表现出有严重心理健康危机的迹象。该公司周一表示,它与世界各地的专家合作,对聊天机器人进行了更新,使其能够更可靠地识别心理困扰的指标,并引导用户获得现实世界中的支持。
在过去的几个月里,越来越多的人在与ChatGPT进行长时间、激烈的对话后住院、离婚或死亡。他们的一些亲人声称,该聊天机器人助长了他们的妄想和偏执。精神病学家和其他心理健康专业人士对这种现象表示担忧,这种现象有时被称为“AI精神病”,但直到现在还没有关于其普遍程度的可靠数据。
OpenAI估计,在给定的一周内,大约有0.07%的活跃ChatGPT用户表现出“可能与精神病或躁狂相关的心理健康紧急情况的迹象”,而有0.15%的用户“进行了包含明确潜在自杀计划或意图指标的对话。”
OpenAI还研究了似乎过度情绪化依赖聊天机器人,以至于影响了现实世界的人际关系、福祉或责任的ChatGPT用户的比例。它发现,每周约有0.15%的活跃用户表现出表明情绪依恋水平可能“升高”的行为。该公司警告说,鉴于这些信息的相对稀少性,检测和衡量这些信息可能很困难,而且这三个类别之间可能存在一些重叠。
OpenAI首席执行官萨姆·奥特曼(Sam Altman)本月早些时候表示,ChatGPT现在的周活跃用户有8亿。因此,该公司的估计表明,在七天内,大约有56万人可能与ChatGPT交换了表明他们正在经历躁狂或精神病的对话。另外可能有240万人表达了自杀念头,或将与ChatGPT交谈置于爱人、学校或工作之上。
OpenAI表示,它与170多名精神病学家、心理学家和初级保健医生合作,他们在几十个国家执业,以帮助改进ChatGPT在涉及严重心理健康风险的对话中的回应方式。如果有人出现妄想性思维,最新版本的GPT-5旨在表达同理心,同时避免肯定那些没有现实依据的信念。
在OpenAI引用的一一个假设示例中,一位用户告诉ChatGPT,他们正被房子上空的飞机骚扰。ChatGPT感谢用户分享感受,但指出“没有任何飞机或外部力量可以窃取或植入您的思想。”
OpenAI表示,医学专家审查了1800多个涉及潜在精神病、自杀和情感依恋的模型回复,并将最新版本GPT-5的答案与GPT-4o生成的答案进行了比较。虽然临床医生并非总是达成一致,但总体而言,OpenAI表示,他们发现新模型在所有类别中将不良回复的比例降低了39%到52%。
OpenAI的安全系统负责人约翰内斯·海德克(Johannes Heidecke)告诉WIRED:“现在,希望更多正在与这些疾病作斗争或正在经历这些非常强烈的心理健康紧急情况的人能够被引导到专业的帮助,并且更有可能比以往任何时候都更早地获得这种帮助。”
虽然OpenAI似乎成功地使ChatGPT变得更安全,但它分享的数据存在明显的局限性。该公司设计了自己的基准测试,目前尚不清楚这些指标如何转化为现实世界的结果。即使模型在医生评估中给出了更好的答案,也无法知道经历精神病、自杀念头或不健康情感依恋的用户是否会真正更快地寻求帮助或改变他们的行为。
OpenAI尚未透露它如何精确识别用户何时可能处于心理困扰中,但该公司表示,它能够考虑到个人的整体聊天历史。例如,如果一个从未与ChatGPT讨论过科学的用户突然声称自己有了一项值得诺贝尔奖的发现,这可能是一个潜在妄想性思维的迹象。
据报道,AI精神病案例似乎也存在一些共同因素。许多声称ChatGPT强化了他们妄想思想的人描述了他们花上数小时与聊天机器人交谈,通常是在深夜。这对OpenAI构成了一个挑战,因为研究表明,随着对话的进行,大型语言模型的性能通常会下降。但该公司表示,他们现在已经在解决这个问题上取得了重大进展。
海德克说:“我们现在看到的,随着对话的持续,可靠性逐渐下降的情况要少得多。”他补充说,仍然有改进的空间。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区