目 录CONTENT

文章目录

Mustafa Suleyman:AI发展短期内不会触及瓶颈——原因在此

Administrator
2026-04-09 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.technologyreview.com/2026/04/08/1135398/mustafa-suleyman-ai-future/

原文作者:Mustafa Suleyman


人类习惯于线性的世界。如果你走一个小时,就能覆盖一定的距离;走两个小时,覆盖的距离就会翻倍。这种直觉在稀树草原上对我们很有帮助,但在面对人工智能及其核心的指数级趋势时,这种直觉却显得极其无力。

从我2010年开始从事AI工作至今,前沿AI模型所使用的训练数据量增长了惊人的1万亿倍——从早期系统的约10¹⁴次浮点运算(flops,计算的核心单位)增长到今天最大模型的超过10²⁶次。这是一种爆炸式的增长,AI领域的一切演变都源于此。

算盘、计算尺、计算器、旧式台式电脑和GPU展示了进步的历程

质疑者始终低估了算力

质疑者不断预言AI会触及瓶颈,但面对这场史诗级的代际算力提升,他们的预测一再落空。他们常指出摩尔定律正在放缓,提到数据匮乏或能源限制。

然而,当你审视推动这场革命的综合力量时,这种指数级趋势其实是可以预见的。AI训练就像是一个挤满人的房间,大家都在使用计算器。过去,增加算力意味着在房间里增加更多使用计算器的人。今天的革命不仅仅是拥有了更多、更好的计算器,而是确保这些计算器永远不停止工作,并且作为一个整体协同作战。

三项关键技术的融合

三项技术的趋同正在实现这一目标。首先,基础计算单元的速度更快了。英伟达的芯片在短短六年内实现了超过七倍的原始性能提升。其次,数据传输更快了。得益于HBM(高带宽内存)技术,其最新一代HBM3将带宽提升了三倍,足以让处理器时刻保持忙碌。第三,超级计算机的构建发生了本质变化。NVLink和InfiniBand等技术将数十万个GPU连接成仓库级的超级计算机,使其像单一的认知实体一样运行。

这些收益共同带来了巨大的算力增长。2020年,在8个GPU上训练一个语言模型需要167分钟,而现在使用现代硬件只需不到四分钟。我们已经从2012年启动深度学习热潮的AlexNet模型(当时仅用两个GPU),发展到如今集群超过10万个GPU的规模。

从聊天机器人到认知代理

这一切将带给我们什么?我认为,这将推动从“聊天机器人”向“准人类水平代理”的转型——这些半自主系统能够持续编写代码、执行长达数周甚至数月的项目、进行谈判、管理物流。不要只盯着那些只会回答问题的基础助手,未来将是能够思考、协作和执行任务的AI工作团队。我们现在正处于这一转型的山脚下,其影响将远超科技行业本身。

当然,明显的限制是能源。但这种需求正与另一种指数级趋势相碰撞:太阳能成本在过去50年下降了近100倍,电池价格在三十年间下降了97%。实现清洁扩展的路径已隐约可见。

资本已经投入,工程技术正在兑现,百亿美元级别的计算集群不再是科幻小说。我们正迈向真正的“认知富足”时代。对于那些习惯线性世界的质疑者,他们将继续预言边际递减,并继续感到惊讶。算力爆炸是我们这个时代最重要的技术叙事,而且,这仅仅是一个开始。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区