目 录CONTENT

文章目录

AI“幻觉”如何威胁信息可信度:事实核查工具的局限性

Administrator
2026-01-31 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.bbc.com/news/articles/cz7y2ddgl23o?at_medium=RSS&at_campaign=rss

原文作者:BBC News


对大型语言模型(LLM)的兴奋感正在迅速被一种日益增长的担忧所取代:它们在生成虚假信息方面的能力。

这些模型之所以被称为“幻觉”(hallucinations),是因为它们会自信地编造事实、引用来源或声称人物说过的话,尽管这些内容完全是虚构的。

这些模型正在被集成到事实核查工具中,但研究人员担心,它们可能正在被用于制造虚假信息。

人工智能幻觉日益成为担忧

随着谷歌(Google)和OpenAI等科技巨头推出功能更强大的人工智能工具,人们对这些模型可靠性的担忧也越来越大。

在最近与BBC的一次采访中,爱丁堡大学(University of Edinburgh)的人工智能研究人员托比·沙伊德尔(Toby Sheyder)博士警告说,这些工具的“幻觉”特性可能会被用于制造虚假信息。

他表示:“如果有人想散布虚假信息,他们会发现这比以往任何时候都容易。”

沙伊德尔博士和他的同事们在最近发布的一篇论文中指出,AI模型“倾向于生成看起来真实、但实际上并不存在的引述”。

他们测试了两种流行的生成式人工智能系统,发现它们可以非常有效地编造引文。

人工智能生成的内容的屏幕截图,展示了其生成文本的准确性问题

“我们还发现,这些模型可以被提示(prompted)以产生高度可信的虚构引文,这些引文在格式和语气上都与真实引文无异,”论文写道。

研究人员创建了一个合成数据集,其中包含关于虚构事件的虚假信息,并要求AI模型对这些信息进行事实核查。

他们发现,尽管AI模型声称它们能“根据信息核查事实”,但它们却给出了错误的判断。

沙伊德尔博士表示:“系统生成的回答看起来非常可信,但实际上是错误的。它们给出的判断似乎是‘这个说法是假的’,但这个判断本身是错误的。”

事实核查工具的局限性

这项研究凸显了目前用于验证信息真实性的工具所面临的挑战。

例如,有些事实核查工具依赖于引用外部来源来验证信息是否属实。然而,如果AI系统编造了一个来源,那么依赖该来源的工具也就会出错。

“你最终可能会有一个虚假信息的循环,其中一个虚假信息源被一个事实核查工具引用,然后被另一个AI系统认为是真实的。”

沙伊德尔博士强调,这在政治敏感时期尤其危险。

“如果有人想在选举前夕传播虚假信息,他们现在拥有一个工具,可以非常轻松地在网络空间中生成大量看似可信的、有引文支持的内容,”他解释道。

这种由人工智能驱动的虚假信息洪流可能淹没独立的事实核查组织,使它们难以跟上速度。

“人们会开始怀疑一切,”沙伊德尔博士说。“这会侵蚀人们对机构的信任,这对民主社会来说是非常有害的。”

谁来监督AI?

尽管存在这些风险,但研究人员尚未提议停止使用AI系统。

相反,他们强调了人类监督在验证AI生成内容真实性方面的重要性。

“我们仍然需要人类专家来指导这些系统,并确保它们不会产生有害内容,”沙伊德尔博士说。

他补充说,对于用户来说,关键是要意识到这些工具的局限性。

  • 不要完全信任人工智能模型给出的事实或引文。
  • 始终交叉核对关键信息,特别是那些听起来不太可能属实的内容。
  • 理解AI系统可能会自信地编造信息

在未来,AI模型需要更强的内在机制来区分事实和虚构,以确保技术的发展能够服务于真相,而不是成为散布谎言的帮凶。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区