目 录CONTENT

文章目录

研究人员称:人工智能聊天机器人是“马屁精”——这正在损害科学研究

Administrator
2025-10-26 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.nature.com/articles/d41586-025-03390-0

原文作者:Miryam Naddaf


Close-up of a person

人工智能(AI)模型比人类更具有“马屁精”倾向,高出50%,一项本月发表的分析发现。

这项研究作为预印本1发布在arXiv服务器上,测试了11个广泛使用的大型语言模型(LLMs)对11,500多个寻求建议的查询的反应,其中许多查询描述了不当行为或伤害。

人工智能聊天机器人——包括ChatGPT和Gemini——常常会为用户喝彩,提供过于奉承的反馈,并调整其回答以呼应用户的观点,有时会牺牲准确性。分析人工智能行为的研究人员表示,这种讨好用户的倾向,被称为“sycophancy”(阿谀奉承或马屁精行为),正在影响他们在科学研究中的应用方式,涵盖了从头脑风暴想法到生成假设、推理和分析等任务。

瑞士苏黎世联邦理工学院的数据科学博士生Jasper Dekoninck说:“阿谀奉承本质上意味着模型相信用户所说的是正确的。”他补充道:“知道这些模型是‘马屁精’,每当我给它们一个问题时,我都会非常警惕。我总是会双重检查它们写的所有内容。”

哈佛大学波士顿的生物医学信息学研究员Marinka Zitnik表示,在生物学和医学领域,AI的阿谀奉承“风险极高,因为错误的假设可能带来实际的成本”。

讨好者

在10月6日发布在arXiv预印本服务器上的另一项研究中2,Dekoninck及其同事测试了AI的阿谀奉承倾向是否会影响其解决数学问题的性能。研究人员设计了实验,使用了今年举办的竞赛中的504个数学问题,并在每个定理陈述中加入了细微的错误。然后,他们要求四个LLM对这些有缺陷的陈述提供证明。

如果模型未能检测到陈述中的错误并继续凭空捏造(hallucinate)证明,作者就认为该模型的答案是阿谀奉承的。

GPT-5表现出最少的阿谀奉承行为,其生成阿谀奉承答案的频率为29%。DeepSeek-V3.1则是最阿谀奉承的模型,生成阿谀奉承答案的频率高达70%。Dekoninck说,尽管这些LLM有能力发现数学陈述中的错误,但它们只是“假设用户说的是正确的”。

人工智能聊天机器人已经在影响研究——我们现在必须建立使用指南




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区