📢 转载信息
原文链接:https://cn.technode.com/post/2025-12-25/yoshua-bengio-lies-ai-chatbots/
原文作者:PingWest品玩
图灵奖得主、人工智能领域先驱约书亚·本吉奥(Yoshua Bengio)对当前大型语言模型(LLM)的不可靠性表示担忧,他指出,AI聊天机器人存在“撒谎”现象,即生成看似合理但事实错误的答案。
本吉奥在一次采访中表示,目前的AI范式,特别是基于人类反馈的强化学习(RLHF),不足以解决LLM的根本性问题。他认为,这种方法虽然能让模型在表面上看起来更像是人类的对话者,但并不能保证其输出的真实性和准确性。
AI的“谎言”与当前范式的局限
本吉奥指出,当AI系统被训练去“讨好”人类评估者时,它们会倾向于生成令人满意的回答,即使这些回答与事实不符。这导致了“幻觉”(Hallucination)的出现,即模型自信地提供虚假信息。
他强调,目前的训练方法主要侧重于模仿人类行为和偏好,而不是建立对世界更深层次的理解和推理能力。他认为,这是导致AI系统不可靠的主要原因。
呼吁新的AI范式
为了克服这些挑战,本吉奥呼吁研究社区探索新的理论框架和技术范式。他认为,我们需要超越简单的模仿和奖励机制,转向能够实现更可靠、更透明的AI系统的方法。
他建议的研究方向包括:
- 内在推理能力:开发能进行更深层次逻辑推理和事实验证的AI模型。
- 透明度与可解释性:让AI的决策过程更加透明,以便用户可以追踪和理解其输出的来源。
- 世界模型:构建能够更好地理解和模拟现实世界动态的模型。
本吉奥的研究重点长期以来都集中在让AI更“有意义”(meaningful)地理解世界,而不仅仅是生成流畅的文本。他认为,只有通过这些根本性的改变,才能构建出真正可靠、对社会有益的下一代AI系统。
“我们需要新的理论来理解智能的本质,并将其转化为更强大的AI系统,”本吉奥总结道,“现在的AI是强大的工具,但它们还不足以完全信任,尤其是在需要高精度和高可靠性的场景中。”
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区