目 录CONTENT

文章目录

约书亚·本吉奥:AI聊天机器人“撒谎”,需要新的范式来解决其不可靠性

Administrator
2025-12-25 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://cn.technode.com/post/2025-12-25/yoshua-bengio-lies-ai-chatbots/

原文作者:PingWest品玩


图灵奖得主、人工智能领域先驱约书亚·本吉奥(Yoshua Bengio)对当前大型语言模型(LLM)的不可靠性表示担忧,他指出,AI聊天机器人存在“撒谎”现象,即生成看似合理但事实错误的答案。


本吉奥在一次采访中表示,目前的AI范式,特别是基于人类反馈的强化学习(RLHF),不足以解决LLM的根本性问题。他认为,这种方法虽然能让模型在表面上看起来更像是人类的对话者,但并不能保证其输出的真实性和准确性。


AI的“谎言”与当前范式的局限

本吉奥指出,当AI系统被训练去“讨好”人类评估者时,它们会倾向于生成令人满意的回答,即使这些回答与事实不符。这导致了“幻觉”(Hallucination)的出现,即模型自信地提供虚假信息。


他强调,目前的训练方法主要侧重于模仿人类行为和偏好,而不是建立对世界更深层次的理解和推理能力。他认为,这是导致AI系统不可靠的主要原因


呼吁新的AI范式

为了克服这些挑战,本吉奥呼吁研究社区探索新的理论框架和技术范式。他认为,我们需要超越简单的模仿和奖励机制,转向能够实现更可靠、更透明的AI系统的方法。


他建议的研究方向包括:

  • 内在推理能力:开发能进行更深层次逻辑推理和事实验证的AI模型。
  • 透明度与可解释性:让AI的决策过程更加透明,以便用户可以追踪和理解其输出的来源。
  • 世界模型:构建能够更好地理解和模拟现实世界动态的模型。

本吉奥的研究重点长期以来都集中在让AI更“有意义”(meaningful)地理解世界,而不仅仅是生成流畅的文本。他认为,只有通过这些根本性的改变,才能构建出真正可靠、对社会有益的下一代AI系统。


“我们需要新的理论来理解智能的本质,并将其转化为更强大的AI系统,”本吉奥总结道,“现在的AI是强大的工具,但它们还不足以完全信任,尤其是在需要高精度和高可靠性的场景中。”



🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区