📢 转载信息
原文链接:https://www.bbc.com/news/articles/c77zxx43x4vo?at_medium=RSS&at_campaign=rss
原文作者:BBC News
# 深度学习模型:我们离真正理解世界还有多远?
人工智能(AI)的最新进展,特别是大型语言模型(LLMs),在许多方面令人印象深刻。它们能写出流畅的文章、通过复杂的代码,并击败人类在各种游戏中取得胜利。然而,一个深刻的哲学和科学问题依然存在:这些系统是否真正“理解”了它们所处理的信息,还是仅仅在执行极其复杂的模式匹配?
许多专家和研究人员对目前的进展持谨慎态度。他们认为,尽管目前的深度学习模型在特定任务上表现出色,但它们的核心机制仍依赖于从海量数据中识别和复制统计规律。
缺乏常识和因果推理能力
批评者指出,当前的AI系统往往缺乏人类所具备的常识知识和对因果关系的深刻理解。例如,一个模型可能知道“水是湿的”,但它不理解“湿”的物理含义,也无法推断出如果将一块糖扔进水里会发生什么,除非它在训练数据中明确见过大量类似例子。
“当前的成功很大程度上是基于关联性,而不是真正的因果理解,”一位不愿透露姓名的AI研究员表示。“如果你改变了输入数据的某个微小方面,模型可能会崩溃,因为它没有一个内在的、可泛化的世界模型来支撑其预测。”
通往通用人工智能(AGI)的障碍
实现通用人工智能(AGI)——即具备像人类一样学习、适应和解决广泛问题的能力的AI——被认为是AI领域的终极目标。研究人员普遍认为,要达到这一目标,AI必须超越表面的统计关联。
“我们需要构建能够形成内部世界表征的系统,”一位认知科学家解释道。“这不仅仅是记住数据,而是能够构建、测试和完善对现实运作方式的内在模型。目前的深度学习架构似乎在这一点上遇到了瓶颈。”
未来的研究方向可能需要结合符号推理、神经科学的见解,以及更精细的、受控的学习环境,以确保AI不仅能做出准确的预测,还能真正“理解”其预测背后的机制。在这一目标达成之前,人类对AI能力的评估必须保持清醒和审慎。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区