目 录CONTENT

文章目录

微软提出了新的在线内容真实性验证计划

Administrator
2026-02-20 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.technologyreview.com/2026/02/19/1133360/microsoft-has-a-new-plan-to-prove-whats-real-and-whats-ai-online/

原文作者:James O'Donnell


由AI赋能的欺骗行为现在已经渗透到我们的在线生活中。你可能很容易发现那些引人注目的案例,比如白宫官员最近分享了一张被篡改的明尼苏达州抗议者图片,然后嘲笑那些对此提出疑问的人。在其他时候,它悄无声息地潜入社交媒体信息流中并获得大量观看量,例如俄罗斯影响活动目前为传播以阻止乌克兰人入伍的视频。

正是在这种混乱局面中,微软向《麻省理工科技评论》分享了一份关于如何在线证明内容真实性的蓝图。


该公司的人工智能安全研究团队最近评估了记录数字篡改的方法在应对当今最令人担忧的AI发展(如交互式深度伪造和广泛可用的超现实模型)方面的表现。随后,他们建议了可以由AI公司和社交媒体平台采用的技术标准。

要理解微软力推的黄金标准,想象一下你有一幅伦勃朗的画作,并试图证明它的真实性。你可能会用一份详细的清单来描述它的出处provenance),记录画作的来源以及所有权转移的历史。你可能会应用一个对人眼不可见但机器可读的水印watermark)。你还可以对画作进行数字扫描,并根据笔触生成一个数学签名,就像一个指纹fingerprint)。如果你在博物馆展示这件作品,怀疑的参观者可以检查这些证据来验证它是原作。

pipe emitting Content Credentials icons as puffs of smoke in front of a circle containing a blue cloudy sky within a simple eye shape, reminiscent of Magritte's False Mirror

所有这些方法在验证在线内容的工作中都以不同程度被使用着。微软评估了60种不同的组合,模拟了每种设置在不同失败场景下的表现——从元数据被剥离到内容被轻微修改或故意篡改。然后,该团队绘制了哪些组合能产生可靠的结果,平台可以放心地展示给在线用户,以及哪些组合非常不可靠,可能带来的困惑多于澄清。


Ask AI
Why it matters to you?BETA
Here’s why this story might matter to you, according to AI. This is a beta feature and AI hallucinates—it might get weird
A location I care about is.

该公司首席科学官Eric Horvitz表示,这项工作的起因是立法——例如将于8月生效的《加州人工智能透明度法案》——以及AI技术在结合视频和语音方面发展之快,其逼真度令人震惊。

Horvitz在接受《麻省理工科技评论》采访时说:“你可能称之为自律。”但他很清楚,推行这项工作有助于提升微软的形象:“我们也希望成为那些想了解世界上发生了什么的人所青睐和期望的提供者。”

尽管如此,Horvitz拒绝承诺微软将在其自有平台上使用自己的建议。该公司处于一个庞大的AI内容生态系统的中心:它运营着可以生成图像和文本的Copilot;它运营着Azure,客户可以通过该云服务访问OpenAI和其他主要的AI模型;它拥有全球最大的专业平台之一LinkedIn;并且它在OpenAI中占有重要股份。但当被问及内部实施情况时,Horvitz在一份声明中说:“公司内跨产品组和领导层都参与了这项研究,为产品路线图和基础设施提供信息,我们的工程团队正在根据报告结果采取行动。”

需要注意的是,这些工具存在固有的局限性;就像它们不能告诉你伦勃朗的画作意味着什么一样,它们也不是为了判断内容是否准确而设计的。它们只揭示内容是否被篡改过。Horvitz表示,他必须向对大型科技公司作为事实仲裁者持怀疑态度的立法者和其他人说明这一点。

“这不是要对什么是真实、什么不是真实做出任何决定,”他说。“而是要提出标签,仅仅告知人们信息来自何处。”


没有参与微软这项研究的加州大学伯克利分校教授Hany Farid表示,如果业界采纳了该公司的蓝图,那么用篡改内容来欺骗公众的难度将大大增加。他说,有能力的个人或政府可以努力绕过这些工具,但新标准可以消除很大一部分误导性材料。

“我不认为它解决了问题,但我认为它解决了其中的一大块难题,”他说。

不过,也有理由认为微软的方法体现了一种相当天真的技术乐观主义。有越来越多的证据表明,即使人们知道AI生成的内容是虚假的,他们仍然会受到影响。在最近一项关于亲俄AI生成乌克兰战争视频的研究中,指出视频由AI制作的评论所获得的参与度远低于将视频视为真实的评论。

“是不是有些人,无论你告诉他们什么,他们都会相信他们所相信的?”Farid问道。“是的。”但他补充说,“绝大多数美国公民和世界公民,我认为他们确实想知道真相。”

这种愿望并没有促使科技公司采取紧急行动。谷歌从2023年开始在其AI工具生成的内容中添加水印,Farid表示这在他的调查中很有帮助。一些平台使用C2PA,这是一个微软在2021年帮助发起的溯源标准。但是,如果微软建议的全部变更措施——无论它们多么强大——威胁到AI公司或社交媒体平台的商业模式,它们可能仍然只停留在建议层面。


Related Story

Farid说:“如果马克·扎克伯格和埃隆·马斯克之流认为在某物上加上‘AI生成’标签会降低参与度,那么他们当然有动力不去这样做。”Meta和谷歌等平台已经表示将包括AI生成内容的标签,但Indicator去年进行的一项审计发现,其在Instagram、LinkedIn、Pinterest、TikTok和YouTube上测试的帖子中,只有30%被正确标记为AI生成。

全球许多正在酝酿的AI监管措施可能会促使采取更强有力的内容验证举措。《欧盟人工智能法案》以及印度等地的拟议规则,都将迫使AI公司要求以某种形式披露内容是由AI生成的。

微软的一个重点,不出所料,是希望在塑造这些规则方面发挥作用。该公司在起草《加州人工智能透明度法案》期间进行了游说,Horvitz表示,这使得该法案中关于科技公司必须如何披露AI生成内容的规定“更加切合实际”。


但另一个重点是,对糟糕的内容验证技术部署可能带来的后果的真正担忧。立法者要求能够验证真实性的工具,但这些工具是脆弱的。如果标记系统被仓促推出、应用不一致或经常出错,人们可能会开始完全不信任它们,那么整个努力就会适得其反。这就是研究人员认为,在某些情况下,展示一个可能错误的判断,不如什么都不展示要好的原因。

不充分的工具还可能为研究人员所称的“社会技术攻击”(sociotechnical attacks)创造新的途径。想象一下,有人拍摄了一张真实政治事件的图片,并使用AI工具只更改其中一小部分像素。当它在网上传播时,平台可能会错误地将其归类为AI篡改。但如果将来源证明和水印工具结合起来,平台就可以澄清内容仅是部分AI生成,并指出更改发生的位置。

《加州人工智能透明度法案》将成为美国对这些工具的首次重大考验,但特朗普总统去年底为限制对行业“繁重”的州AI法规而发布的行政命令可能会给执法带来挑战。该政府一直采取反对遏制虚假信息的立场,去年,通过DOGE,它取消了与错误信息相关的研究资助。当然,特朗普政府的官方政府渠道也分享过AI篡改的内容(《麻省理工科技评论》报道,例如国土安全部使用谷歌和Adobe的视频生成器来制作其向公众分享的内容)。

我问Horvitz,来自此来源的虚假内容是否像来自社交媒体其他渠道的内容一样令他担忧。他最初拒绝置评,但随后表示:“政府部门一直都没有游离于各种操纵性虚假信息的幕后推手之外,而且这种情况是全球性的。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区