📢 转载信息
原文作者:Maxwell Zeff
AI实验室正在竞相建立数据中心,其规模大到可以与曼哈顿匹敌,每个数据中心的成本达数十亿美元,耗电量相当于一个小城市。这一努力源于对“扩展”(scaling)的坚定信念——即向现有AI训练方法增加更多的计算能力,最终将产生能够执行各种任务的超级智能系统。
然而,越来越多的AI研究人员表示,大型语言模型(LLM)的扩展可能正在达到其极限,可能需要其他的技术突破才能提升AI的性能。
这正是Cohere前AI研究副总裁、Google Brain校友Sara Hooker在其新创公司Adaption Labs所采取的立场。她与Cohere和Google的资深人士Sudip Roy共同创立了该公司,其核心理念是,扩展LLM已成为从AI模型中榨取更多性能的一种低效方式。Hooker于8月离开Cohere,并于本月悄悄宣布了这家初创公司,以便开始更广泛地招聘。
I'm starting a new project.
— Sara Hooker (@sarahookr) October 7, 2025
Working on what I consider to be the most important problem: building thinking machines that adapt and continuously learn.
We have incredibly talent dense founding team + are hiring for engineering, ops, design.
Join us: https://t.co/eKlfWAfuRy
在接受TechCrunch采访时,Hooker表示,Adaption Labs正在构建能够从现实世界经验中持续适应和学习的AI系统,并且效率极高。她拒绝透露这种方法的具体技术细节,也未说明该公司是否依赖LLM或其他架构。
Hooker说:“现在到了一个转折点,很明显,仅仅扩展这些模型的公式——这些‘扩展至上’的方法虽然有吸引力,但极其乏味——并没有产生能够驾驭或与世界互动的智能。”
据Hooker介绍,适应是“学习的核心”。例如,当你走路时撞到餐桌的脚,下次你就会学着绕开它。AI实验室曾试图通过强化学习(RL)来捕捉这个理念,这使得AI模型能够在受控环境中从错误中学习。然而,当今的RL方法并不能帮助已经投入生产(即客户正在使用的系统)的AI模型从实时错误中学习。它们只会不断地撞到桌脚。
一些AI实验室提供咨询服务,以帮助企业根据其特定需求微调AI模型,但这需要付出高昂的代价。据报道,OpenAI要求客户在公司花费超过1000万美元才能提供有关微调的咨询服务。
“我们有一小批前沿实验室决定了一套AI模型,它们以相同的方式提供给所有人,而对这些模型进行适应性调整的成本非常高昂,”Hooker说。“实际上,我认为这不再是必需的,AI系统可以非常高效地从环境中学习。证明这一点将彻底改变谁来控制和塑造AI的格局,以及这些模型最终服务于谁。”
Adaption Labs是AI行业对LLM扩展信心动摇的最新迹象。麻省理工学院研究人员最近发表的一篇论文发现,全球最大的AI模型可能很快就会显示出边际效益递减。旧金山的氛围似乎也在转变。AI界最受欢迎的播主Dwarkesh Patel最近与一些著名的AI研究人员进行了一些不同寻常的、持怀疑态度的对话。
被誉为“强化学习之父”图灵奖得主Richard Sutton在9月份告诉Patel,LLM无法真正扩展,因为它们没有从现实世界经验中学习。本月,OpenAI早期员工Andrej Karpathy告诉Patel,他对RL在未来提升AI模型的潜力持保留态度。
这类担忧并非没有先例。2024年底,一些AI研究人员曾对通过预训练(AI模型从大量数据集中学习模式)来扩展AI模型正遭遇边际效益递减表示担忧。直到那时,预训练一直是OpenAI和Google改进模型的“秘诀”。
这些预训练扩展的担忧现在正体现在数据中,但AI行业已经找到了其他改进模型的方法。在2025年,围绕AI推理模型的突破(这些模型在回答问题前需要额外的时间和计算资源来处理问题)进一步推动了AI模型的能力。
AI实验室似乎确信,扩展RL和AI推理模型是新的前沿阵地。OpenAI研究人员此前曾告诉TechCrunch,他们开发了首个AI推理模型o1,是因为他们认为它将能很好地扩展。Meta和Periodic Labs的研究人员最近发表了一篇论文,探讨RL如何能进一步扩展性能——据报道,这项研究的成本超过400万美元,凸显了当前方法的昂贵程度。
相比之下,Adaption Labs的目标是找到下一个突破,并证明从经验中学习可以更便宜。据三位审阅了其融资推介材料的投资者称,该公司在今年秋季早些时候曾就一轮2000万至4000万美元的种子轮融资进行洽谈。他们表示,该轮融资现已完成,但最终金额尚不清楚。Hooker拒绝置评。
当被问及她的投资者时,Hooker说:“我们的目标非常宏大。”
Hooker此前领导Cohere Labs,在那里她为企业用例训练小型AI模型。紧凑型AI系统现在在编码、数学和推理基准测试中通常会超越其较大的对应模型——这是一个Hooker希望继续推动的趋势。
她还通过招聘来自非洲等代表性不足地区的科研人才,拓宽了全球AI研究的普及性,并因此树立了声誉。虽然Adaption Labs很快将在旧金山开设办事处,但Hooker表示她计划在全球范围内招聘。
如果Hooker和Adaption Labs关于扩展局限性的判断是正确的,其影响可能非常深远。数十亿美元已经投入到LLM的扩展中,其假设是更大的模型将带来通用智能。但真正的适应性学习不仅可能更强大,而且可能效率更高。
Marina Temkin 贡献了报道。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区