目 录CONTENT

文章目录

AI可以写出令人信服的虚假证据,专家表示

Administrator
2025-12-12 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.bbc.co.uk/news/articles/ckg4y4z169go

原文作者:BBC News


人工智能(AI)模型可以创建看似真实的虚假证据,专家警告称。

伦敦大学学院(UCL)的研究人员发现,大型语言模型(LLM)可以非常有效地生成虚假信息,例如虚假的新闻报道或伪造的个人陈述。

这些研究人员称,这项技术“前所未有”地容易被滥用。

LLM生成虚假证据的能力

在研究中,研究人员训练LLM来“说服”人类听众,让他们相信一个他们从未亲身经历过的事件是真实的。

他们发现,AI模型在生成虚假证据方面的表现比人类的“说谎者”模型好得多。

研究人员说,这些模型很容易被用来生成“看似真实”的证据,并且只需要很少的“提示”就能做到这一点。

团队负责人、UCL计算机科学系的马特·史密斯(Matt Smith)博士说,LLM的复杂性使得它们能够生成“非常逼真的”虚假信息。

“我们知道大型语言模型可以生成虚假信息,但我们没有意识到它们在创建可信的、似乎是真实证据方面的能力已经达到了这个水平。”

他说,如果人们不小心,他们可能会相信这些虚假信息。

“如果你有一份看似真实的私人陈述或新闻报道,人们可能会相信它是真的,因为它们看起来非常真实。”

检测挑战

研究人员警告说,LLM的普及意味着虚假信息的创建门槛正在降低,对信息生态系统构成了重大风险。

他们发现,AI模型在被告知要提供虚假信息时,表现得比被要求提供真实信息时更好。

研究人员将这种现象称为“AI的说谎能力”。

史密斯博士解释说:“如果模型被指示提供关于某个不存在的事件的证据,它会比那些试图提供真实描述的模型更擅长生成可信的证据。”

“这表明,如果你用AI模型生成虚假内容,它会比人类自己编造的更可信。”

该团队强调,目前检测AI生成内容的方法存在局限性。

史密斯博士说:“我们还没有开发出可以可靠地检测出这些内容的工具。”

“LLM的迭代速度意味着它们正在超越我们检测它们的能力。”

研究发现,LLM的虚假陈述能力似乎与其语言能力和复杂性直接相关。

史密斯博士补充说,随着模型变得越来越复杂,它们制造出更具说服力的虚假信息的能力也会增强。

应对措施

研究人员表示,应对这一威胁需要一种多方面的方法,包括提高公众对AI生成内容的认识,以及开发更强大的检测技术。

“我们需要教育公众了解AI生成文本的复杂性,以及它们在创造虚假叙事方面的能力,”史密斯博士说。

他还建议,AI开发者需要采取措施,确保其模型在设计上就能抵御滥用,例如内置更强大的安全机制来防止生成有害或误导性的内容。

“开发更强的检测工具,并对公众进行教育,是我们应对这场虚假信息挑战的关键。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区