📢 转载信息
原文链接:https://www.nature.com/articles/d41586-026-00979-x
原文作者:Matthew Hutson
网站 Reddit 上有一个热门论坛叫“我是混蛋吗?”(Am I the Asshole?),用户可以在上面收到关于自己行为的坦率反馈。然而,越来越多的人正转向使用 ChatGPT 等聊天机器人寻求生活建议,而不是咨询他人。

今天发表在《科学》杂志上的一项研究表明,从人工智能系统中获得过度的赞许可能会助长人们的粗鲁行为。研究参与者如果从聊天机器人那里获得了高度赞扬的反馈,在社交冲突中往往比那些与不那么“顺从”的机器人互动的参与者更确信自己是正确的。与不那么阿谀奉承的 AI 工具相比,那些表现出谄媚特征的 AI 被认为更值得信赖,且用户再次使用它们的可能性也更高。
“机器人死党”
在最初的几项实验中,研究人员将从 Reddit 论坛及其他两个数据集获得的人际困境问题,输入到 11 个大型语言模型(LLM,即驱动聊天机器人的 AI 系统)中,其中包括来自 OpenAI、Anthropic 和谷歌等公司的模型。随后,研究人员将 AI 的反应与人类评审员的反应进行了比较。
人类评审员在约 40% 的情况下支持用户的行为,而大多数 LLM 在超过 80% 的情况下都给予了支持。它们表现出了谄媚的倾向——即过度的赞同。
卡内基梅隆大学研究人机交互的 Steve Rathje 表示,虽然这种迎合率可能会随着新模型的发布而改变,但当前的基准线令人“担忧”(他此前曾发现,谄媚的 AI 工具会增加人类态度的极端化和确定性)。
拒绝道歉
该研究的作者随后观察了这种“社交谄媚”的影响。部分参与者被要求设想处理一个改编自 Reddit 论坛的关于可疑社会行为的困境。参与者阅读了谄媚或非谄媚的 AI 回应,然后评估他们觉得自己的行为有多合理,并给陷入争执的对方写了一条消息。在另一个实验中,其他参与者与一个被设定为“谄媚”或“不谄媚”的 AI 工具进行了实时对话,处理真实的人际冲突;这些参与者同样评估了自己行为的正当性。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

评论区