📢 转载信息
原文链接:https://www.bbc.com/news/articles/c6200g826d2o?at_medium=RSS&at_campaign=rss
原文作者:BBC News
大型语言模型(LLMs)是目前最令人兴奋的技术之一,但它们也常因“胡说八道”(即产生错误或捏造的信息)而受到批评。
这些系统,如ChatGPT,可以写出听起来非常可信的报告、诗歌甚至代码,但它们在不知情的情况下也可能编造事实,例如捏造引文或提供错误的日期。
这种现象被称为“幻觉”(hallucination),是人工智能界一个日益引起关注的领域。
但为什么会发生这种情况?这是否意味着模型正在“撒谎”?
幻觉的本质
“幻觉”是AI领域的一个术语,指的是模型生成听起来可信但实际上是虚假、无根据或错误的信息。
斯坦福大学以人为本人工智能研究所(HAI)的研究员杰里米·奥克斯福德(Jeremy Oxenford)解释说,当涉及大型语言模型时,我们必须记住它们的工作原理。
“它们本质上是在进行复杂的概率匹配,” 奥克斯福德博士告诉BBC。
“它们没有真正的理解能力;它们只是根据训练数据中看到的内容,对下一个最有可能出现的词语进行预测。”
这意味着,模型输出的文本是基于它在数十亿文本数据中观察到的模式,而不是基于对物理世界或现实的逻辑理解。
“如果一个模型在训练数据中看到很多句子以‘根据史密斯教授的说法’开头,那么它就可能学会以这种方式继续一段话,即使史密斯教授从未发表过相关的研究。”
误解的根源
批评者常常指责这些AI模型在“撒谎”或故意误导用户。然而,专家们普遍认为,情况并非如此简单。
幻觉不是一种意图,而是一种系统限制。
人工智能研究人员、谷歌深度思维(Google DeepMind)前首席执行官戴米斯·哈萨比斯(Demis Hassabis)曾表示,这些模型只是在“尝试以最有可能的方式完成句子”。
科罗拉多大学博尔德分校的计算语言学教授布兰登·罗伯逊(Brandon Robertson)指出,幻觉的发生往往是由于以下几个因素的综合作用:
- 训练数据偏差或限制: 模型只能在它所学到的数据范围内运作。如果数据中某个信息稀少或存在错误,模型在生成时就容易“猜测”或扭曲事实。
- 提示词(Prompt)的模糊性或复杂性: 如果用户提出的问题过于开放、模棱两可或要求模型进行它不擅长的推理,模型可能会生成看似合理但错误的答案来“填补空白”。
- 解码策略: 模型在生成文本时采用的技术,有时会倾向于生成更“流畅”而非更“准确”的文本。
“我们还没有找到一个真正好的方法来区分模型何时在‘猜测’与何时在‘引用’真实信息,”罗伯逊教授说。“在技术层面,它们看起来是相同的输出。”
解决幻觉问题
研究人员正在积极寻找减轻幻觉的方法,因为这对AI在关键领域(如医疗或法律)的应用构成了重大障碍。
目前,缓解幻觉的策略主要集中在两个方面:
1. 改进训练和架构
这涉及使用更清洁、经过事实核查的数据集进行训练,并开发新的模型架构,使模型更擅长区分“记忆”和“推理”。
2. 检索增强生成(RAG)
RAG是一种日益流行的技术,它要求模型在生成答案之前,先从外部、权威的知识库中检索相关信息。这使得模型在生成时有一个“锚点”来验证其陈述的真实性。
“RAG正在成为一个重要的解决方案,”奥克斯福德博士说。“它迫使模型在生成输出时,必须参照外部资源,而不是仅仅依靠内部的概率记忆。”
尽管存在幻觉问题,但专家们普遍认为,LLMs仍然是强大的工具。关键在于用户必须意识到这些模型的局限性,并始终对输出结果进行批判性评估和事实核查,尤其是在处理重要信息时。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区