目 录CONTENT

文章目录

我们对人工智能“真相危机”的误解

Administrator
2026-02-03 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.technologyreview.com/2026/02/02/1132068/what-weve-been-getting-wrong-about-ais-truth-crisis/

原文作者:James O'Donnell


本文最初发表于我们的每周AI新闻邮件The Algorithm。如需第一时间在收件箱接收此类文章,请点击此处订阅

我们长期以来一直被警告,一个“真相衰退”的时代即将来临——届时AI生成的内容会愚弄我们,即使我们识破了谎言,它仍然会塑造我们的信念,并在这个过程中侵蚀社会信任。要说服你这个时代已经到来,需要付出多大的代价?上周我发表的一篇文章将我推向了崩溃的边缘。它也让我意识到,我们被推销为解决这场危机的工具正在惨败。


上周四,我报道了美国国土安全部(DHS,包括移民机构)正在使用谷歌和Adobe的AI视频生成器制作并与公众分享内容的首次证实。此消息传出之际,移民机构正向社交媒体大量投放内容,以支持特朗普总统的大规模驱逐政策——其中一些内容(如一段关于“大规模驱逐后的圣诞节”的视频)似乎就是用AI制作的。

但读者给我的两种反应,也许能解释我们所处的认知危机有多严重。


一种反应是那些并不感到惊讶的读者,因为在1月22日,白宫发布了一张对一名在ICE抗议中被捕的女性进行数字修改的照片,照片使她看起来歇斯底里、泪流满面。白宫副通讯主管Kaelan Dorr没有回应关于白宫是否修改了照片的提问,但他写道:“表情包会继续下去。”

第二种反应来自那些认为报道DHS使用AI编辑内容给公众看毫无意义的读者,因为新闻媒体似乎也在做同样的事情。他们指出,新闻网络MS Now(前身为MSNBC)分享了一张Alex Pretti的照片,该照片经过AI编辑,使他看起来更英俊,这一事实在本周引发了许多病毒式传播的片段,其中包括乔·罗根播客中的片段。换句话说,以毒攻毒?MS Now的一位发言人告诉Snopes,该新闻机构在播出该照片时并不知道它是经过编辑的。


没有理由将这两种修改内容的情况归为同一类别,或者将它们视为真相不再重要的证据。前者涉及美国政府向公众分享一张明显被修改过的照片,并拒绝回答是否故意篡改;后者涉及一家新闻机构播出了本应知道被修改了但仍未披露错误的图像。

这些反应揭示的恰恰是我们对这一时刻的集体准备中存在的一个缺陷。关于AI真相危机的警告都围绕着一个核心论点:无法辨别真实与否将摧毁我们,因此我们需要工具来独立验证真相。我的两个严峻的体会是,这些工具正在失效,而且虽然核查真相仍然至关重要,但它本身已不足以产生我们曾被承诺的社会信任。


例如,2024年关于内容真实性倡议(Content Authenticity Initiative,由Adobe联合发起并被各大科技公司采纳)的炒作非常热烈,该倡议旨在为内容附加标签,披露其制作时间、制作者以及是否涉及AI。但即便是Adobe自己,也只在内容是完全由AI生成而非部分生成时才应用这些标签。

而且像X这样的平台,可以随意移除内容的标签(关于该照片被修改的说明是用户添加的)。平台也可以选择不显示标签;事实上,当Adobe启动该倡议时,它提到五角大楼的官方图片分享网站DVIDS将显示这些标签以证明真实性,但今天对该网站的审查显示,那里没有任何此类标签。

注意到白宫的照片即使在被证明是AI修改后仍获得了大量关注,我深受《传播心理学》(Communications Psychology)期刊上发表的一篇最新论文发现的触动。在这项研究中,参与者观看了一段关于犯罪的深度伪造“认罪”视频,研究人员发现,即使他们被明确告知证据是假的,参与者在判断个人是否有罪时仍然依赖于该证据。换句话说,即使人们知道他们看到的内容完全是假的,他们仍然会受到其情感上的影响。

“透明度有帮助,但它本身是不够的,”造假信息专家Christopher Nehring最近在评论这项研究结果时写道。“我们必须制定关于如何应对深度伪造的新总体计划。”

生成和编辑内容的AI工具正变得越来越先进、操作越来越简单、运行成本越来越低——这也是美国政府越来越多地付费使用它们的原因。我们对此早有预警,但我们的应对方式是为这样一个世界做准备:主要危险是混乱。然而,我们正在进入的却是一个曝光无法消除影响怀疑很容易被武器化确立真相不再能充当重置按钮的世界。而真相的捍卫者们已经远远落后了。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区