📢 转载信息
原文链接:https://www.bbc.com/news/articles/cz7y2ddgl23o?at_medium=RSS&at_campaign=rss
原文作者:BBC News
对大型语言模型(LLM)的兴奋感正在迅速被一种日益增长的担忧所取代:它们在生成虚假信息方面的能力。
这些模型之所以被称为“幻觉”(hallucinations),是因为它们会自信地编造事实、引用来源或声称人物说过的话,尽管这些内容完全是虚构的。
这些模型正在被集成到事实核查工具中,但研究人员担心,它们可能正在被用于制造虚假信息。
人工智能幻觉日益成为担忧
随着谷歌(Google)和OpenAI等科技巨头推出功能更强大的人工智能工具,人们对这些模型可靠性的担忧也越来越大。
在最近与BBC的一次采访中,爱丁堡大学(University of Edinburgh)的人工智能研究人员托比·沙伊德尔(Toby Sheyder)博士警告说,这些工具的“幻觉”特性可能会被用于制造虚假信息。
他表示:“如果有人想散布虚假信息,他们会发现这比以往任何时候都容易。”
沙伊德尔博士和他的同事们在最近发布的一篇论文中指出,AI模型“倾向于生成看起来真实、但实际上并不存在的引述”。
他们测试了两种流行的生成式人工智能系统,发现它们可以非常有效地编造引文。
“我们还发现,这些模型可以被提示(prompted)以产生高度可信的虚构引文,这些引文在格式和语气上都与真实引文无异,”论文写道。
研究人员创建了一个合成数据集,其中包含关于虚构事件的虚假信息,并要求AI模型对这些信息进行事实核查。
他们发现,尽管AI模型声称它们能“根据信息核查事实”,但它们却给出了错误的判断。
沙伊德尔博士表示:“系统生成的回答看起来非常可信,但实际上是错误的。它们给出的判断似乎是‘这个说法是假的’,但这个判断本身是错误的。”
事实核查工具的局限性
这项研究凸显了目前用于验证信息真实性的工具所面临的挑战。
例如,有些事实核查工具依赖于引用外部来源来验证信息是否属实。然而,如果AI系统编造了一个来源,那么依赖该来源的工具也就会出错。
“你最终可能会有一个虚假信息的循环,其中一个虚假信息源被一个事实核查工具引用,然后被另一个AI系统认为是真实的。”
沙伊德尔博士强调,这在政治敏感时期尤其危险。
“如果有人想在选举前夕传播虚假信息,他们现在拥有一个工具,可以非常轻松地在网络空间中生成大量看似可信的、有引文支持的内容,”他解释道。
这种由人工智能驱动的虚假信息洪流可能淹没独立的事实核查组织,使它们难以跟上速度。
“人们会开始怀疑一切,”沙伊德尔博士说。“这会侵蚀人们对机构的信任,这对民主社会来说是非常有害的。”
谁来监督AI?
尽管存在这些风险,但研究人员尚未提议停止使用AI系统。
相反,他们强调了人类监督在验证AI生成内容真实性方面的重要性。
“我们仍然需要人类专家来指导这些系统,并确保它们不会产生有害内容,”沙伊德尔博士说。
他补充说,对于用户来说,关键是要意识到这些工具的局限性。
- 不要完全信任人工智能模型给出的事实或引文。
- 始终交叉核对关键信息,特别是那些听起来不太可能属实的内容。
- 理解AI系统可能会自信地编造信息。
在未来,AI模型需要更强的内在机制来区分事实和虚构,以确保技术的发展能够服务于真相,而不是成为散布谎言的帮凶。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区