📢 转载信息
原文作者:James O'Donnell
AI驱动的欺骗内容如今已渗透到我们的网络生活中。有一些备受瞩目、容易被识破的案例,比如最近白宫官员 分享 了明尼苏达州一名抗议者的篡改图像,随后又 嘲讽 了质疑者。另一些时候,它则悄无声息地潜入社交媒体信息流,并获得大量浏览量,例如当前俄国影响活动正在 传播 的视频,旨在阻止乌克兰人参军。
正是在这样的混乱局面中,微软提出了一个 蓝图,并与MIT Technology Review分享,阐述了如何证明网络内容的真实性。
该公司的一个AI安全研究团队近期评估了当前如何应对最令人担忧的AI发展,如交互式深度伪造和广泛可用的超现实模型等,以及现有的记录数字操纵的方法。随后,他们推荐了AI公司和社交媒体平台可以采用的技术标准。
要理解微软正在推动的黄金标准,可以想象你有一幅伦勃朗的画作,并试图证明其真实性。你可能会通过一份详细的清单来描述其出处,说明画作的来源以及每次交易的记录。你可能会应用一个人类肉眼无法察觉但机器可以读取的水印。你还可以对画作进行数字扫描,并根据笔触生成一个数学签名,如同指纹。如果在一间博物馆展出这件作品,持怀疑态度的参观者就可以检查这些证明来验证其是否为真品。
所有这些方法都在不同程度上被用于验证网络内容。微软评估了60种不同的组合,模拟了每种设置在不同故障场景下的表现——从元数据被剥离到内容被轻微修改或故意篡改。然后,该团队绘制出哪些组合能产生可靠结果,平台可以自信地展示给在线用户,哪些组合则极不可靠,可能引起更多混淆而非澄清。
该公司首席科学官埃里克·霍维茨(Eric Horvitz)表示,这项工作是受到立法——如加州AI透明法案(将于8月生效)——以及AI在视频和语音结合方面飞速发展且逼真度极高的驱动。
“你可以称之为自我监管,”霍维茨告诉MIT Technology Review。但很明显,他认为开展这项工作有助于提升微软的形象:“我们也在努力成为那些希望了解世界动态的人们所青睐和期望的提供者。”
尽管如此,霍维茨拒绝承诺微软将在其自有平台广泛采用自己的建议。该公司处于一个庞大的AI内容生态系统的中心:它运营着Copilot,可以生成图像和文本;它运营着Azure,这是客户可以访问OpenAI和其他主要AI模型的云服务;它拥有LinkedIn,这是世界上最大的专业平台之一;并且它持有OpenAI的重要股份。但当被问及内部实施时,霍维茨在一份声明中说:“公司各产品部门和领导者参与了这项研究,为产品路线图和基础设施提供信息,我们的工程团队正在根据报告的发现采取行动。”
值得注意的是,这些工具本身存在固有的局限性;正如它们无法告诉你伦勃朗的作品意味着什么一样,它们也不是为了确定内容是否准确而设计的。它们只显示内容是否被操纵过。霍维茨说,他必须向立法者和其他对大型科技公司作为事实仲裁者持怀疑态度的人说明这一点。
“这并不是要做出任何关于什么是真实、什么不真实的决定,”他说,“而是要提供标签,让人们知道内容的来源。”
加州大学伯克利分校的数字取证学教授哈尼·法里德(Hany Farid)并未参与微软的研究,他表示,如果行业采纳了该公司的蓝图,那么通过操纵内容来欺骗公众将变得明显困难。他认为,虽然有能力的高个人士或政府可以设法绕过这些工具,但新的标准可以消除相当一部分误导性材料。
“我不认为它能完全解决问题,但我认为它解决了很大的一个部分,”他说。
尽管如此,仍有理由将微软的方法视为一种有些天真的技术乐观主义。有 越来越多的证据 表明,即使人们知道AI生成的内容是虚假的,他们仍然会被其所影响。而在最近一项对俄国宣传的AI生成视频的研究中 显示,指出视频是AI制作的评论获得的参与度远低于将其视为真实的评论。
“有些人,无论你告诉他们什么,他们都会坚持自己的看法,对吗?”法里德问道。“是的,”他补充道,“但我认为,美国和世界上的绝大多数公民确实希望了解真相。”
然而,这种愿望并未能促使科技公司采取紧急行动。谷歌在2023年开始为其AI工具生成的内容添加水印,法里德认为这对他进行调查很有帮助。一些平台使用了 C2PA,这是一个微软在2021年 帮助推出 的溯源标准。但是,微软建议的完整一套更改,无论多么强大,如果威胁到AI公司或社交媒体平台的商业模式,可能仍将仅仅是建议。
“如果马克·扎克伯格和埃隆·马斯克之流认为在内容上标注‘AI生成’会降低参与度,那么他们当然没有动力去做,”法里德说。Meta和Google等平台已经表示会包含AI生成内容的标签,但Indicator去年进行的一项 审计 发现,其在Instagram、LinkedIn、Pinterest、TikTok和YouTube上测试的帖子中,只有30%被正确标记为AI生成。
世界各地许多待定的AI监管法案可能会促使更强有力的内容验证措施。欧盟的《AI法案》,以及印度和其他地区的拟议规则,都将强制AI公司要求某种形式的披露,说明内容是由AI生成的。
微软的一个优先事项,不出所料,是参与塑造这些规则。该公司在加州AI透明法案的起草过程中进行了游说,霍维茨表示,这使得该法案对科技公司如何披露AI生成内容的要求“更加现实一些”。
但另一个优先事项是,它非常关注如果这些内容验证技术的推出不当可能带来的后果。立法者要求能够验证真实性的工具,但这些工具很脆弱。如果标签系统仓促推出、应用不一致或经常出错,人们可能会完全不信任它们,整个努力将适得其反。这就是为什么研究人员认为,在某些情况下,展示错误的信息不如完全不显示任何信息。
不充分的工具还可能为研究人员称之为“社会技术攻击”开辟新的途径。想象一下,有人拿了一张真实的照片,描绘了一个充满争议的政治事件,并使用AI工具只修改了图像中一小部分像素。当它在网上传播时,平台可能会错误地将其归类为AI操纵。但是,结合溯源和水印工具将意味着平台可以澄清内容仅部分由AI生成,并指出修改发生的位置。
加州的AI透明法案将是这些工具在美国的首次重大考验,但特朗普总统去年底发布的 行政命令 可能会对执法提出挑战,该命令旨在限制对行业“负担过重”的州AI法规。政府还普遍采取了反对限制虚假信息的立场,去年,通过DOGE,它 取消了 与错误信息相关的资助。当然,特朗普政府的官方政府渠道也曾分享过AI操纵的内容(MIT Technology Review 曾报道,例如,国土安全部使用Google和Adobe的视频生成器来制作其向公众分享的内容)。
我问霍维茨,来自政府渠道的虚假内容是否像来自其他社交媒体的虚假内容一样让他担忧。他起初拒绝评论,但随后表示,“政府也并非不在那些制造各种操纵性虚假信息的部门之外,而且这是全球性的。”
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区