目 录CONTENT

文章目录

聊天机器人出奇地有效地驳斥阴谋论

Administrator
2025-10-31 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.technologyreview.com/2025/10/30/1126471/chatbots-are-surprisingly-effective-at-debunking-conspiracy-theories/

原文作者:Thomas Costello, Gordon Pennycook, & David Rand


事实并不能改变人们的想法,这已经成了一个真理。也许在阴谋论问题上,这一点体现得最为明显:许多人相信你无法通过言语来说服阴谋论者放弃他们的信念。


但事实并非如此。原来,许多阴谋论信徒确实会对证据和论点做出反应——而这些信息现在可以很容易地以与AI聊天机器人进行定制化对话的形式传递。


在我们今年发表于《科学》(Science)杂志上的研究中,我们让超过2000名阴谋论信徒与DebunkBot进行了一次约八分钟的对话。DebunkBot是我们在OpenAI的GPT-4 Turbo(当时最新的GPT模型)基础上构建的模型。参与者首先用自己的话写下了他们所相信的一个阴谋论,以及让他们觉得该理论有说服力的证据。然后,我们指示AI模型说服用户停止相信这个阴谋论,并采取一种不太阴谋论的观点看待世界。与AI模型进行三轮来回的文本聊天(平均耗时8.4分钟)使得参与者对该信念的信心下降了20%,并且大约四分之一的参与者——所有人都事先相信该阴谋论——在对话结束后表示他们不再相信它。这一效果适用于经典的阴谋论(例如肯尼迪遇刺或登月骗局)和更具当代政治色彩的阴谋论(例如与2020年选举和新冠疫情相关的阴谋论)。



本文是《麻省理工科技评论》(MIT Technology Review)“新阴谋论时代”系列的一部分,该系列探讨了当前阴谋论的激增如何重塑科学与技术。


鉴于毫无根据的阴谋论在当今政治格局中扮演的巨大角色,这是一个好消息。因此,尽管人们对生成式AI是传播虚假信息的有力工具存在广泛且合理的担忧,但我们的工作表明,它也可以成为解决方案的一部分。


即使是那些在对话开始时绝对确信自己的阴谋论是真实的,或者表示该理论对他们的个人世界观高度重要的人,其信念也显示出明显的下降。引人注目的是,这种效果非常持久;我们两个月后对参与者进行了后续调查,发现阴谋论信念的减少程度与对话结束后立即测量时一样大。


我们的实验表明,许多信徒相对理性但信息不足,及时向他们提供准确的事实信息可以产生巨大影响。阴谋论对那些只是从未听过对他们所关注事件的清晰、非阴谋论的解释的合理的人来说,可能是合理的。这可能令人惊讶。但许多阴谋论断言,虽然是错误的,但表面上看起来很合理,需要专门的、深奥的知识才能评估和反驳。


相关报道

例如,9/11否认者通常会指出“喷气燃料燃烧的温度不足以熔化钢铁”这一说法,作为飞机不应是导致世贸双子塔倒塌的原因的证据——但聊天机器人会回应说,虽然这确实是真的,但美国钢铁结构协会(American Institute of Steel Construction)指出,喷气燃料的燃烧确实足以使钢铁强度降低50%以上,这足以导致此类塔楼倒塌。


尽管我们比以往任何时候都更容易获取事实信息,但要有效搜索这个庞大的知识库极其困难。通过那种方式找到真相需要知道该搜索什么——或者该听谁的——并且有足够的动力去寻找相互矛盾的信息。每次听到新的说法都要进行这样的搜索存在巨大的时间和技能障碍,因此很容易将偶然发现的阴谋论内容照单全收。而且,在感恩节餐桌上,大多数想反驳的人都会犯下低级错误,而AI则能避免:你是否能凭空说出钢铁的熔点和抗拉强度?当你试图纠正亲戚时,如果对方骂你白痴,你是否能保持镇定?


如果付出足够的努力,人类几乎肯定能够像我们实验中的AI一样研究并提供事实。在一项后续实验中,我们发现,如果告诉参与者他们正在与一位专家而不是AI交谈,AI的反驳效果同样有效。因此,反驳效果并非AI独有。一般来说,人类提供的事实和证据也会奏效。但这需要人类花费大量的时间和精力来收集这些事实。生成式AI可以更有效地完成事实核查和反驳阴谋论断言的认知劳动。


另一项大型后续实验中,我们发现,促成反驳效果的是模型提供的具体事实和证据:诸如告知人们聊天机器人将试图说服他们放弃自己的信念等因素并未降低其功效,而指示模型在不使用事实和证据的情况下尝试说服其聊天对象则完全消除了这种效果。


尽管这些模型的缺点和“幻觉”(hallucinations)已被充分记录,但我们的结果表明,互联网上充分的辟谣努力足以使以阴谋论为中心的对话大致保持准确。当我们雇佣专业事实核查员评估GPT-4的主张时,他们发现超过99%的主张被评定为真实(且没有政治偏见)。此外,在参与者提及的少数确实存在的阴谋论(例如1950年代中央情报局的人体实验项目MK Ultra)中,AI聊天机器人证实了他们准确的信念,而不是错误地将他们说服放弃。


迄今为止,主要受限于必要性,打击阴谋论的干预措施大多是预防性的——旨在防止人们陷入“兔子洞”,而不是试图将他们拉出来。现在,得益于生成式AI的进步,我们有了一个可以利用证据来改变阴谋论者想法的工具。


被提示去反驳阴谋论的机器人可以部署在社交媒体平台上,与分享阴谋论内容的个人(包括传播阴谋论的其他AI聊天机器人)进行互动。谷歌也可以将反驳AI模型与搜索引擎关联起来,为与阴谋论相关的查询提供事实答案。与其在餐桌上与持阴谋论观点的亲戚争论,不如直接把手机递给他,让他和AI交谈。


当然,这对我们人类如何理解周围世界具有更深远的意义。人们普遍认为,我们现在生活在一个“后真相”世界,在这个世界里,两极分化和政治凌驾于事实和证据之上。按照这种观点,我们的激情压倒了真理,基于逻辑的推理已经过时了,有效改变人们想法的唯一方法是通过心理策略,例如呈现引人入胜的个人叙事或改变对社会规范的看法。如果是这样,那么民主生活中对话式的日常工作就是徒劳的。


但事实并未消亡。我们关于阴谋论的研究结果是新兴研究中的最新(也许是最极端的)一部分,这些研究证明了事实和证据的说服力。例如,虽然人们曾认为纠正与个人政治观点一致的谎言只会使人们更加坚持并相信这些谎言,但这种“反弹”(backfire)的观念本身已经被证伪了:多项研究一致发现,纠正和警告标签可以减少对虚假信息的信念和分享——即使是在那些最不信任作出纠正的事实核查员的人群中也是如此。同样地,即使有证据表明这些论点与他们的政党领导人的立场相悖,基于证据的论点也可以改变党派人士对政治问题的看法。仅仅在分享内容之前提醒人们思考内容是否准确,就可以大大减少错误信息的传播。


如果事实并未消亡,那么民主就有希望——尽管这需要一个各派别可以共同努力的基本事实共识。在基本事实上确实存在广泛的党派分歧,并且阴谋论的相信程度令人不安。然而,这并不一定意味着我们的思想被我们的政治和身份不可避免地扭曲了。当面对证据时——即使是令人不快或不舒服的证据——许多人确实会根据这些证据调整自己的想法。因此,如果能够广泛传播准确信息,或许借助AI的帮助,我们或许能够重建当今社会所缺乏的事实共同基础。


您可以前往 debunkbot.com 亲自试用我们的反驳机器人。


Thomas Costello 是卡内基梅隆大学社会与决策科学系的助理教授。他的研究结合了心理学、政治学和人机交互,旨在探究我们的观点从何而来,它们在人与人之间有何不同,以及它们为何会改变——以及人工智能对这些过程的广泛影响。


Gordon Pennycook 是康奈尔大学多萝西和阿里兹·梅塔教职领导研究员及心理学副教授。他研究分析性推理的原因和后果,探索直觉思维与深思熟虑思维如何影响决策,从而理解气候不作为、健康行为和政治两极分化等问题的根本性错误。


David Rand 是康奈尔大学信息科学、市场营销与管理传播学以及心理学教授。他采用计算社会科学和认知科学的方法来探索人机对话如何纠正不准确的信念、人们为何分享虚假信息,以及如何减少政治两极分化和促进合作。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区