目 录CONTENT

文章目录

聊天机器人出人意料地有效地揭穿了阴谋论

Administrator
2025-11-13 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.technologyreview.com/2025/10/30/1126471/chatbots-are-surprisingly-effective-at-debunking-conspiracy-theories/

原文作者:Thomas Costello, Gordon Pennycook, David Rand


将事实本身并不能改变人们的想法,这已经成了一个真理。也许在阴谋论这件事上体现得最为明显:许多人相信你无法通过言语说服阴谋论者放弃他们的信念。

但事实并非如此。事实证明,许多阴谋论信徒确实会对证据和论点做出反应——而这些信息现在可以通过与AI聊天机器人的定制对话轻松传递。

在我们今年发表于《科学》(Science)期刊的研究中,我们让超过2000名阴谋论信徒与DebunkBot进行了大约八分钟的对话,该模型基于当时最新的OpenAI GPT-4 Turbo构建。参与者首先用自己的话写下他们所相信的一个阴谋论,以及支持该理论的证据。然后,我们指示AI模型说服用户停止相信该阴谋论,并采纳一种不太具有阴谋论色彩的世界观。与AI模型的(平均持续8.4分钟的)三轮来回文本聊天,使得参与者对该信念的信心下降了20%,并且大约四分之一的参与者——他们在此之前都相信该阴谋论——在对话结束后表示他们不再相信它。这一效果对于经典阴谋论(例如肯尼迪遇刺或登月骗局)和更具当代政治色彩的阴谋论(如与2020年大选和新冠疫情相关的)都成立。


本文是《麻省理工科技评论》系列报道“新阴谋论时代”的一部分,该系列探讨了当前阴谋论的激增如何重塑科学与技术。


鉴于毫无根据的阴谋论在当今政治格局中扮演的巨大角色,这是一个好消息。因此,虽然人们普遍且合理地担心生成式AI是传播虚假信息的有力工具,但我们的工作表明,它也可以成为解决方案的一部分。

即使是那些在对话开始时完全确信自己的阴谋论是真实,或者表示这对于他们的个人世界观至关重要的人,其信念也显示出明显的下降。值得注意的是,这些效果非常持久;我们在两个月后回访了参与者,发现阴谋论信念的减少程度与对话结束后立即观察到的程度一样大。

我们的实验表明,许多信徒是相对理性但信息不足的,及时获得准确的事实信息可以产生巨大影响。阴谋论对那些只是从未听过对他们所痴迷事件的清晰、非阴谋论的解释的合理的人来说,可能听起来很有道理。这可能令人惊讶。但许多阴谋论的主张,虽然是错误的,但在表面上看起来是合理的,需要专业、深奥的知识才能评估和揭穿。

例如,9/11否认者经常指出“喷气燃料燃烧的温度不足以熔化钢铁”这一说法,以此作为飞机没有造成世贸双塔倒塌的证据——但聊天机器人会回应指出,尽管这一点属实,但美国钢铁结构协会(American Institute of Steel Construction)表示,喷气燃料的燃烧确实足以使钢铁强度降低50%以上,这足以导致这些塔楼倒塌。

尽管我们比以往任何时候都更容易获取事实信息,但要有效率地从浩瀚的知识库中搜索所需信息极其困难。以这种方式寻找真相需要知道该搜索什么——或者该听从谁的——并且需要有足够的动力去寻求冲突的信息。每次听到新的说法时,进行这样的搜索都有很大的时间和技能壁垒,因此很容易将偶然发现的阴谋论内容照单全收。而且,在感恩节餐桌上,大多数想做“揭穿者”的人都会犯下AI可以避免的初级错误:你脱口而出知道钢铁的熔点和抗拉强度吗?当你试图纠正亲戚时,如果他指责你是个白痴,你是否能保持冷静?

投入足够的努力,人类几乎肯定能够像我们实验中的AI一样研究并提供事实。在一项后续实验中,我们发现,如果我们告诉参与者他们正在与一位专家而不是AI交谈,AI的揭穿效果同样有效。因此,这种揭穿效应并非AI独有。一般来说,人类提供的事实和证据也会起作用。但人类需要大量的时间和精力才能找出那些事实。生成式AI可以更有效地完成事实核查和反驳阴谋论的主张的认知劳动。

在另一项大型后续实验中,我们发现推动这种揭穿效果的正是模型提供的具体事实和证据:例如,让人们知道聊天机器人将尝试说服他们放弃自己的信念等因素并未降低其功效,而指示模型在不使用事实和证据的情况下尝试说服聊天伙伴则完全消除了这种效果。

尽管这些模型的怪癖和“幻觉”已被充分记录,但我们的结果表明,互联网上广泛存在的揭穿努力足以使聚焦于阴谋论的对话大致保持准确。当我们聘请专业事实核查员评估GPT-4的主张时,他们发现超过99%的主张被评为真实(且不带有政治偏见)。此外,在参与者提到的少数确实存在过的阴谋(例如1950年代中央情报局的人体实验项目MK Ultra)中,AI聊天机器人证实了他们准确的信念,而不是错误地劝说他们放弃。

迄今为止,很大程度上是出于必要,旨在对抗阴谋论的干预措施主要是预防性的——旨在阻止人们走入歧途,而不是试图把他们拉出来。现在,得益于生成式AI的进步,我们有了一个可以使用证据来改变阴谋论者想法的工具。

被提示去揭穿阴谋论的机器人可以部署在社交媒体平台上,与那些分享阴谋论内容的人(包括传播阴谋论的其他AI聊天机器人)进行互动。谷歌也可以将揭穿阴谋论的AI模型与搜索引擎链接起来,为与阴谋论相关的查询提供事实答案。此外,比起在餐桌上与你那个充满阴谋论的叔叔争论,你或许可以直接把手机递给他,让他与AI交谈。

当然,这对我们人类如何理解周围世界有着更深远的意义。人们普遍认为,我们现在生活在一个“后真相”世界,两极分化和政治凌驾于事实和证据之上。按照这种观点,我们的情感压倒了真相,基于逻辑的推理已经过时,有效改变人们想法的唯一方法是通过心理策略,例如呈现引人入胜的个人叙事或改变对社会规范的看法。如果是这样,那么在民主社会中共存所必需的、基于话语的努力就是徒劳的。

但事实并没有消亡。我们关于阴谋论的发现是新兴研究中的最新、或许也是最极端的证据,这些研究证明了事实和证据的说服力。例如,过去人们认为纠正与个人政治立场一致的谎言只会导致人们更加固执己见,但这种“反噬效应”本身已经被揭穿了:许多研究一致发现,修正和警告标签可以减少人们对虚假信息的信念和分享——即使是那些最不信任发布修正信息的事实核查者也是如此。类似地,即使在明确提醒其论点与他们党魁立场相悖时,基于证据的论证也能改变党派人士在政治问题上的看法。仅仅在分享内容前提醒人们思考内容是否准确,就能大大减少虚假信息的传播。

如果事实没有消亡,那么民主就有希望了——尽管这需要一个对手派系可以从中着手的、共识性的事实集合。在基本事实上确实存在广泛的党派分歧,以及对阴谋论令人不安的相信程度。然而,这并不一定意味着我们的思维被我们的政治和身份不可避免地扭曲了。当面对证据时——即使是不便或令人不舒服的证据——许多人确实会相应地改变他们的想法。因此,如果能够足够广泛地传播准确信息,或许在AI的帮助下,我们就有可能重建当今社会所缺乏的事实共同基础。

您可以在debunkbot.com上亲自尝试我们的揭穿机器人。

Thomas Costello是卡内基梅隆大学社会与决策科学系的助理教授。他的研究整合了心理学、政治学和人机交互,旨在探讨我们的观点从何而来,它们因人而异的程度,以及它们为何会改变——以及人工智能对这些过程的广泛影响。

Gordon Pennycook是康奈尔大学的Dorothy和Ariz Mehta教职领导研究员和心理学副教授。他研究分析性推理的原因和后果,探讨直觉思维与审慎思维如何影响决策,以理解气候不作为、健康行为和政治两极分化等问题的根本错误。

David Rand是康奈尔大学的信息科学、市场营销和管理传播以及心理学教授。他运用计算社会科学和认知科学的方法来探索人机对话如何纠正不准确的信念、人们为何分享虚假信息,以及如何减少政治两极分化和促进合作。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区