📢 转载信息
原文链接:https://www.wired.com/story/the-ai-industrys-scaling-obsession-is-headed-for-a-cliff/
原文作者:Will Knight
AI模型规模化增长的尽头?研究显示未来回报或将递减
麻省理工学院(MIT)的一项新研究表明,目前计算资源消耗最大、规模最庞大的AI模型,与规模较小的模型相比,其性能提升可能会面临边际效益递减的局面。研究人员通过将“规模定律”(scaling laws)与模型效率的持续改进进行对比,发现未来想要通过扩大模型规模来取得性能飞跃将变得更加困难,而采用更适度硬件运行的模型,在未来十年内,其能力可能会因效率提升而显著增强。
参与这项研究的计算机科学家、MIT教授Neil Thompson表示:“在未来五到十年内,(性能提升的)差距很可能会开始缩小。”
近年来,AI行业习惯于投入巨额计算资源进行模型训练。而像今年一月DeepSeek发布的成本极低却性能惊人的模型,已经给这种“烧钱”的模式敲响了警钟,成为一种现实检验。
目前,像OpenAI等公司的前沿模型在性能上仍远超学术实验室用较少计算资源训练出的模型。尽管MIT团队的预测并非绝对,特别是如果出现如强化学习等带来意外突破的新训练方法时,但他们指出,未来大型AI公司的技术优势可能会减弱。

PHOTO-ILLUSTRATION: WIRED STAFF; GETTY IMAGES
领导这项分析的MIT研究科学家Hans Gundlach,对这个问题的兴趣源于前沿模型运行起来的复杂性。他与Thompson以及另一位研究科学家Jayson Lynch一起,预测了前沿模型与使用更适度计算资源构建的模型在未来性能上的对比趋势。Gundlach指出,这种预测的趋势对于当前流行的推理模型尤其明显,因为这些模型在推理过程中更加依赖额外的计算资源。
Thompson强调,研究结果表明,优化算法与扩大计算规模同等重要。“如果你花费巨资训练这些模型,那么你也绝对应该将一部分资金投入到开发更高效的算法上,因为这可能会产生巨大的影响,”他补充道。
AI基础设施的“泡沫”与投资质疑
这项研究的意义尤为突出,因为它正值AI基础设施建设热潮(或者我们应该称之为“泡沫”?)——目前看来丝毫没有放缓的迹象。
OpenAI和其他美国科技公司已签署了价值数千亿美元的协议,用于在美国建设AI基础设施。“世界需要更多的算力,”OpenAI总裁Greg Brockman本周在宣布与博通(Broadcom)合作开发定制AI芯片时断言。
然而,越来越多的专家对这些交易的稳健性提出了质疑。建设数据中心成本中约有60%用于购买GPU,而GPU的折旧速度很快。主要参与者之间的合作也显得“循环且不透明”。
摩根大通CEO Jamie Dimon是最新一位发出警告的金融界重量级人物,他上周在接受BBC采访时表示:“大多数人心中应该对不确定性的程度保持更高的警惕。”
AI基础设施的淘金热并不仅仅是为了构建更强大的模型。OpenAI实际上是在押注新一代生成式AI工具的需求将呈指数级增长。该公司可能也在试图减少对微软和英伟达的依赖,并将自己高达5000亿美元的估值转化为可以自主设计和定制的基础设施。
即便如此,行业利用像MIT推出的此类分析,来探索未来几年算法和硬件的演变,似乎也是明智之举。
目前支撑美国经济大部分增长的AI建设热潮,也可能对美国的创新带来影响。通过在GPU和其他深度学习专用芯片上投入巨资,AI公司可能会错失学术边缘领域可能带来的新机遇,例如深度学习的替代方案、新型芯片设计,甚至是量子计算等方法。毕竟,今天的AI突破正是源于这些前沿探索。
您是否担心涌入新AI基础设施的资金流向?欢迎发送邮件至 ailab@wired.com 分享您的想法。
这是Will Knight的AI Lab新闻邮件的一期内容。往期内容请点击此处阅读。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。
青云聚合API官网https://api.qingyuntop.top
支持全球最新300+模型:https://api.qingyuntop.top/pricing
详细的调用教程及文档:https://api.qingyuntop.top/about
评论区