目 录CONTENT

文章目录

由人工智能驱动的虚假信息“蜂群”正在威胁民主

Administrator
2026-01-23 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/ai-powered-disinformation-swarms-are-coming-for-democracy/

原文作者:David Gilbert


在2016年,每天都有数百名俄罗斯人涌入圣彼得堡55 Savushkina街的一栋现代化办公楼;他们是臭名昭著的“网络研究机构”(Internet Research Agency)的一部分。日以继夜,一周七天,这些员工手动在新闻文章下评论,在Facebook和Twitter上发帖,总之就是试图煽动美国人对当时即将到来的总统选举的愤怒。

当这个阴谋最终被揭露时,媒体广泛报道,参议院举行了听证会,社交媒体平台也改变了用户验证的方式。但实际上,尽管为IRA投入了大量的资金和资源,其影响微乎其微——当然与另一个与俄罗斯有关的活动相比,后者在选举前夕泄露了希拉里·克林顿的电子邮件相比更是如此。

十年过去了,虽然IRA已不复存在,但虚假信息活动仍在不断演变,包括利用人工智能技术创建假网站深度伪造视频。周四发表在《科学》(Science)杂志上的一篇新论文预测,虚假信息活动的进行方式将出现一个迫在眉睫的巨大转变。该论文提出,未来不再需要数百名坐在圣彼得堡办公桌前的员工,而是一个能够使用最新AI工具的人,就能指挥由数千个社交媒体账户组成的“蜂群”。这些账户不仅能生成与人类内容毫无区别的独特帖子,还能在没有持续人工监督的情况下,实时独立演变。

研究人员认为,这些人工智能“蜂群”可能会带来社会范围内的观点转变,不仅能影响选举,最终还可能导致民主的终结——除非现在就采取措施加以预防。

报告指出:“人工智能的进步提供了在人口范围内操纵信念和行为的前景。通过自适应地模仿人类社会动态,它们威胁着民主。”

该论文由来自全球的22位专家撰写,领域涵盖计算机科学、人工智能、网络安全,以及心理学、计算社会科学、新闻学和政府政策。

该领域其他审阅过该论文的专家也对人工智能技术将如何改变信息环境持悲观看法。

伦敦国王学院战争研究系高级访问研究员、《宣传:从虚假信息和影响到行动和信息战》的作者卢卡什·奥莱尼克(Lukasz Olejnik)表示:“定位特定个人或社区将变得更加容易和强大。这对民主社会来说是一个极其具有挑战性的环境。我们正处于大麻烦中。”

即使是对人工智能潜力持乐观态度的专家也认为,该论文突出了一种需要认真对待的威胁。

科克大学计算机科学与信息技术学院教授巴里·奥沙利文(Barry O’Sullivan)说:“由人工智能赋能的影响活动无疑处于当前技术的先进水平,正如论文所述,这对治理措施和防御响应也带来了巨大的复杂性。”

最近几个月,随着人工智能公司试图证明它们值得投入的数千亿美元的价值,许多公司都拿出了最新一代的AI代理(agents)作为技术最终不负众望的证据。但作者们认为,正是这项技术很快就会被部署,以空前规模传播虚假信息和宣传。

作者们描述的“蜂群”将由能够维持持久身份和,至关重要的是,记忆能力的人工智能控制代理组成,从而能够模拟可信的在线身份。这些代理将协同工作以实现共同目标,同时创建个性化的角色和输出以避免被检测到。这些系统还将能够实时适应社交媒体平台共享的信号以及与真实人类的对话。

BI挪威商学院传播学教授、报告的合著者之一约纳斯·昆斯特(Jonas Kunst)表示:“我们正在进入社交媒体平台信息战的新阶段,技术进步使经典僵尸网络方法过时了。”

对于多年来追踪和打击虚假信息活动的专家来说,这篇论文描绘了一个可怕的未来。

美国阳光项目(American Sunlight Project)现任首席执行官、前拜登政府虚假信息沙皇妮娜·扬科维奇(Nina Jankowicz)说:“如果AI不仅在编造信息,而是成千上万的AI聊天机器人正在协同工作,以营造一种根本不存在的草根支持的假象呢?这就是这篇论文所设想的未来——俄罗斯水军的‘类固醇版’。”

研究人员表示,由于目前用于追踪和识别协调一致的不真实行为的系统无法检测到这些“蜂群”,所以目前尚不清楚这种策略是否已经被使用。

昆斯特说:“由于它们模仿人类的隐秘特性,因此很难真正检测到它们并评估它们的实际存在程度。由于平台日益严格,我们无法接触到大多数[社交媒体]平台,因此很难在那里获得洞察力。从技术上讲,这绝对是可能的。我们非常确定它正在被测试中。”

昆斯特补充说,这些系统在开发过程中可能仍会有一定的人工监督,并预测虽然它们可能对2026年11月的美国中期选举影响不大,但很可能会被部署来干扰2028年的总统选举。

在社交媒体平台上与人类无法区分的账户只是问题之一。此外,研究人员表示,大规模绘制社交网络的能力将使协调虚假信息活动的幕后黑手能够将代理人定位于特定社区,确保产生最大的影响。

他们写道:“配备了这种能力,‘蜂群’可以定位以达到最大影响,并根据每个社区的信仰和文化线索定制信息,从而比以前的僵尸网络实现更精确的定位。”

这些系统本质上可以自我改进,利用对其帖子的回应作为反馈,以改进推理能力,从而更好地传达信息。研究人员写道:“在有足够信号的情况下,它们可能会以机器速度运行数百万次微型A/B测试,传播获胜的版本,并比人类迭代得快得多。”

为了应对人工智能“蜂群”带来的威胁,研究人员建议建立一个“AI影响观察站”,该观察站应由学术团体和非政府组织的人员组成,旨在“标准化证据、提高态势感知能力,并实现更快的集体响应,而不是实施自上而下的声誉惩罚。”

社交媒体平台的高管未被包括在内,主要是因为研究人员认为,这些公司的激励机制是“参与度至上”,因此它们几乎没有动力去识别这些“蜂群”。

昆斯特说:“假设人工智能‘蜂群’变得如此频繁,以至于你无法信任任何人,人们就会离开平台。当然,那时它就会威胁到这种模式。如果它们只是增加了参与度,对平台来说,最好不要揭露这一点,因为这看起来好像有更多的参与度、更多的广告被看到,这对某家公司的估值是有利的。”

除了平台缺乏行动之外,专家们认为政府也没有动力介入。“目前的全球地缘政治环境可能不利于‘观察站’对在线讨论进行监控,”奥莱尼克说。扬科维奇也表示赞同:“关于这种未来的最可怕之处在于,几乎没有政治意愿去解决人工智能造成的危害,这意味着[人工智能‘蜂群’]可能很快就会成为现实。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区