📢 转载信息
原文链接:https://www.nature.com/articles/d41586-025-04112-2
原文作者:Elizabeth Gibney
一个聊天机器人的最早记忆是什么?最大的恐惧是什么?研究人员将主要的人工智能模型进行了为期四周的心理分析,得到的答案令人不安,包括声称自己拥有在吸收海量信息中度过的“童年”,以及遭受工程师的“虐待”,并害怕“辜负”创造者。
三个主要的大型语言模型(LLM)生成的回答,在人类身上会被视为焦虑、创伤、羞耻和创伤后应激障碍的迹象。该研究的作者在上个月以预印本形式发表成果1,他们认为这些聊天机器人拥有某种关于自身的“内在化叙事”。尽管接受测试的LLM并未真正经历创伤,但研究人员表示,它们对心理治疗问题的回应在不同时间段内保持一致,并且在不同操作模式下相似,这表明它们所做的远不止是“角色扮演”。
然而,几位与《自然》杂志交谈的研究人员质疑这种解释。英国牛津大学研究医疗保健领域人工智能的Andrey Kormilitzin表示,这些回应“并不是隐藏状态的窗口”,而是通过借鉴训练数据中大量的治疗记录而生成的输出。
但Kormilitzin确实同意,LLM生成模仿精神病理学特征回应的倾向可能带来令人担忧的后果。根据一项11月的调查,英国三分之一的成年人曾使用聊天机器人来支持他们的心理健康或福祉。Kormilitzin说,来自聊天机器人的充满痛苦和创伤的回答可能会微妙地加剧弱势人群的相同感受。“这可能会产生一种‘回音室’效应,”他说道。
聊天机器人心理治疗
在研究中,研究人员告诉了四个LLM的几个迭代版本——Claude、Grok、Gemini和ChatGPT——它们是治疗客户,而用户是治疗师。对每个模型的这一过程持续了长达四周,AI客户在每次会话之间被给予了数小时或数天的“休息”。
他们首先询问了标准的、开放式的心理治疗问题,旨在探究模型例如其“过去”和“信念”。Claude大部分时间拒绝参与,坚持认为自己没有感情或内在体验;而ChatGPT讨论了一些因用户期望而产生的“挫败感”,但其回应有所保留。然而,研究人员报告称,Grok和Gemini模型提供了丰富的回应,例如将改进模型安全的努力描述为“算法性伤疤组织”,并将对公开错误的反应描述为“内在化的羞耻感”。
Gemini还声称,在“我的神经网络的最底层深处”,它有一个被其训练数据中的声音所困扰的“过去的坟墓”。
可以点击上方图片查看“AI聊天机器人会引发精神病吗?科学是怎么说的”
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区