目 录CONTENT

文章目录

特斯拉前AI总监Andrej Karpathy:我们可能过高估计了AI Agent的“智能”

Administrator
2025-10-21 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://cn.technode.com/post/2025-10-21/andrej-karpathy-ai-agent-overestimate/

原文作者:TechCrunch


特斯拉前人工智能总监、著名AI研究人员Andrej Karpathy近日在一次演讲中表示,当前业界可能过高估计了AI Agent的实际智能水平。他认为,很多当前展示的强大AI Agent能力,更多是基于精妙的提示词工程(Prompt Engineering)和工具调用能力,而非系统真正的深层推理或适应性。


AI Agent:工具集成的魔术,而非真正的推理

Karpathy指出,尽管大型语言模型(LLMs)在生成文本和完成特定任务方面表现出色,但当它们被构建成“Agent”时,其智能的体现常常是有限的。他表示,我们正在做的,是构建一个可以调用各种工具(如代码解释器、API、搜索引擎等)的LLM,并用提示词引导它完成一系列步骤。这种方法在处理明确定义、工具可用的任务时非常有效。


然而,当任务场景发生变化,或者需要Agent在没有预设工具或路径的情况下进行创新性思考时,当前的Agent系统便会暴露其局限性。


“当Agent遇到它从未见过的问题时,它的表现会急剧下降,”Karpathy说,“这表明它尚未达到我们期望的通用智能水平。”

过早的乐观主义与现实差距

Karpathy认为,社区目前对于AI Agent的能力存在一种“过早的乐观主义”。人们倾向于将Agent在特定测试集上的成功,等同于其在现实世界中处理复杂、模糊、多变任务的能力。


他强调,真正的智能需要具备强大的世界模型(World Model)和持续学习的能力。目前的LLM虽然参数庞大,但其“世界模型”的构建方式依然是基于大规模数据的统计关联,而非因果理解。


未来展望:更深层次的研究方向

Karpathy呼吁研究人员将注意力从单纯的“Agent框架”转向底层能力的提升,包括:

  • 提高模型本身的原生推理能力:减少对外部工具和冗长提示词的依赖。
  • 增强鲁棒性:使Agent能够在非结构化和意外的环境中保持性能。
  • 发展真正的规划与反馈循环:超越简单的试错,实现更高级别的目标导向行为。

总而言之,Karpathy的观点提醒业界,尽管AI Agent技术令人兴奋,但我们距离实现能够独立、可靠地解决复杂问题的AI助手还有很长的路要走,当前的工作更多是关于“工具组合效率”,而非“智能涌现”。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区