目 录CONTENT

文章目录

AI模型的“幻觉”:是时候结束了吗?

Administrator
2025-10-22 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.bbc.co.uk/news/articles/cpd2qv58yl5o?at_medium=RSS&at_campaign=rss

原文作者:BBC News


人工智能模型,特别是那些用于生成文本和图像的模型,正在变得越来越好。但它们仍然会犯错。

这些错误被称为“幻觉”,即模型自信地编造事实,这使得它们在某些关键领域的应用仍然面临障碍。

BBC News 科学编辑奈杰尔·帕金森(Nigel Parkinson)撰文,探讨了这一持续存在的问题。


一些AI模型,例如用于生成文本的大型语言模型(LLMs),在被问及事实信息时,有时会自信地给出完全错误或捏造的答案。

人工智能研究人员一直在努力解决这个问题,但尽管最新的模型在准确性方面有所提高,但“幻觉”现象仍然是生成式AI面临的主要障碍之一。


幻觉从何而来?

AI模型的工作方式是预测下一个最有可能出现的词语。它们是通过分析海量的文本数据进行训练的。

这使得模型非常擅长模仿人类语言的模式,但它们并不像人类那样“理解”世界。当它们遇到一个没有明确答案或者信息量不足的问题时,就会开始“猜”出最听起来合理的内容。


统计性预测的局限性

斯坦福大学的计算机科学家、AI伦理专家特雷弗·阿博特(Trevor Abbott)解释说:“LLMs本质上是统计引擎。它们是在一个巨大的文本空间中进行导航,试图找到一个听起来连贯的路径。”

“如果输入的问题在训练数据中没有明确的对应,模型就会倾向于通过组合它所知道的模式来‘填补空白’。这通常会导致它们自信地陈述错误信息。”


例如,如果你问一个LLM关于一个不存在的科学论文的摘要,它可能会生成一篇听起来非常专业的摘要,其中引用了虚构的作者和期刊,因为这些词汇在科学语境中经常共同出现。


应用领域的风险

在创意写作或头脑风暴等非事实性任务中,幻觉可能只是无害的“副作用”。然而,在法律、医疗诊断或金融建议等领域,模型的错误信息可能带来严重后果。

全球科技公司和研究机构正在投入大量资源来“驯服”这些模型。


缓解策略

目前缓解幻觉的主要策略包括:

  • 改进训练数据: 确保用于训练的数据集质量更高、事实更准确。
  • 检索增强生成(RAG): 这种技术允许模型在生成答案之前,先查询外部、经过验证的数据库或文档。
  • 人类反馈强化学习(RLHF): 让人类评估员对模型的输出进行评分,指导模型偏向于更准确的回答。

然而,这些方法都只是权宜之计。


阿博特博士补充道:“即使使用RAG,如果检索到的外部信息本身有误,模型仍然可能错误地解释或组合它。我们仍然没有解决模型内部的根本推理缺陷。”


是时候结束了吗?

一些领先的AI实验室正在探索构建具有更强大因果推理能力的模型,试图让AI不仅仅是模仿语言,而是真正地理解事物之间的关系。

目前,研究界普遍认为,在AI能够展现出可靠、可验证的逻辑推理能力之前,幻觉问题不会完全消失。

对于普通用户而言,这意味着当前的AI助手应该被视为强大的工具,但其输出结果(尤其涉及事实时)仍然需要人工进行事实核查


“我们正处于一个过渡期,”阿博特总结道,“我们拥有了能够流畅交谈的机器,但它们还不是绝对可靠的知识来源。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区