目 录CONTENT

文章目录

前OpenAI高管的“神秘”AI实验室发布首款产品:Tinker,推动AI模型微调普及化

青云TOP
2025-10-04 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/thinking-machines-lab-first-product-fine-tune/

原文作者:Will Knight


Mira Murati的“隐秘”AI实验室发布首款重磅产品

Thinking Machines Lab,这家由多位前OpenAI知名研究人员共同创立并获得巨额资金支持的初创公司,近日正式推出了其首款产品——一款名为Tinker的工具,旨在实现前沿AI模型定制化的自动化创建。

Thinking Machines的联合创始人兼首席执行官Mira Murati在接受WIRED采访时表示:“我们相信[Tinker]将帮助研究人员和开发者进行模型实验,并让所有人都能更便捷地接触到前沿能力。”

Tinker:让模型微调触手可及

目前,大型企业和学术实验室已经在使用开源AI模型进行微调(fine-tuning),以创建针对特定任务(如解决数学问题、起草法律文件或回答医疗咨询)进行优化的新模型变体。

通常,这项工作需要获取和管理GPU集群,并使用各种复杂的软件工具来确保大规模训练运行的稳定性和效率。Tinker的承诺是,通过自动化上述大部分工作,使更多的企业、研究人员甚至业余爱好者能够微调他们自己的AI模型。

从本质上讲,该团队押注于帮助人们微调前沿模型将成为AI领域的下一个热点。并且有理由相信他们可能是对的。Thinking Machines Lab由在ChatGPT开发中扮演核心角色的研究人员领导。据我采访到的Beta测试者称,与市场上同类工具相比,Tinker更强大、更易于使用。

Murati表示,Thinking Machines Lab希望揭开训练全球最强大AI模型所需工作的神秘面纱,让更多人能够探索AI的极限。“我们正在使原本属于前沿领域的能力普及化,这完全是颠覆性的,”她说。“外界有大量聪明人,我们需要尽可能多的聪明人来进行前沿AI研究。”

Tinker目前支持用户对两个开源模型进行微调:Meta的Llama和阿里巴巴的Qwen。用户可以通过几行代码调用Tinker的API,通过监督学习(使用带标签的数据调整模型)或强化学习(RL)进行微调。RL是一种越来越流行的调优方法,通过根据模型的输出给予正面或负面反馈来优化模型。用户随后可以下载他们微调好的模型,并在任何地方运行。

SAN FRANCISCO CALIFORNIA DECEMBER 03 Mira Murati Technologist speaks onstage during New Beginnings A Conversation with...

Mira Murati, founder of Thinking Machines Lab.Photo-Illustration: WIRED Staff; Kimberly White; Getty Images

业内关注:顶尖团队的回归

AI行业正密切关注这次发布——部分原因在于其背后的团队资历深厚。

Murati曾是OpenAI的首席技术官(CTO)。在2023年底董事会罢免Sam Altman后,她曾短暂担任OpenAI的首席执行官。大约10个月后,她宣布离开该公司。

Murati与其他几位OpenAI的资深人士共同创立了Thinking Machines Lab,其中包括OpenAI联合创始人John Schulman;前研究副总裁Barret Zoph;专注于安全和机器人研究的Lilian Weng;负责预训练和推理的Andrew Tulloch;以及训练后专家Luke Metz。在宣布任何产品之前,该团队就吸引了大量关注:去年7月,这家初创公司宣布已筹集了高达20亿美元的种子轮融资,使其估值达到120亿美元。

Schulman领导了通过强化学习微调驱动ChatGPT的大型语言模型的工作。人类测试者的反馈提供了奖励信号,使模型在进行连贯对话、不偏离主题地回答问题以及避免不良行为方面得到了极大的提升(尽管并非完美)。他声称,Tinker将通过利用强化学习和其他训练技巧,使更多人能从大型模型中激发新能力。“我们让人们对训练循环拥有完全的控制权,”Schulman告诉WIRED。“我们抽象掉了分布式训练的细节,但仍然让人们对数据和算法拥有完全的控制权。”

Thinking Machines Lab将从周三开始允许用户申请Tinker的访问权限。目前该公司不对其API收费,但预计最终会开始收费。

该API已向一些Beta用户开放,其中包括Redwood Research的研究员Eric Gan。该公司专注于AI模型带来的风险。Gan表示,他正在使用Tinker的强化学习功能来微调模型,使其在代码中写入后门。

用户反馈与未来展望

Gan表示,Tinker使得通过API无法实现的能力得以从模型中激发出来。他说,对微调的调整相对容易。“Tinker肯定比从头开始做RL要简单得多,”Gan指出,并补充道:“如果你有一个非常专业的任务,并且现有模型无法完成,RL尤其擅长。”

另一位Beta测试者,Anyscale(一家提供大型AI项目管理技术的公司)的首席执行官Robert Nishihara表示,虽然市场上已存在VERL和SkyRL等微调工具,但Tinker提供了令人惊叹的抽象性和可调性结合。“我认为它是一个很棒的API,很多人都会想用它,”他说。

围绕开源模型的一个持续担忧是它们可能被恶意下载和修改。Thinking Machines目前会对获取其API的用户进行审查,但Schulman表示,该公司最终将引入自动化系统来防范滥用。

Tinker可能是Thinking Machines Lab的第一款产品,但该公司已经发表了关于模型训练的基础性研究,包括关于如何保持神经网络性能和更有效地微调大型语言模型的进展,这些技术被它在Tinker等工具的后台所利用。

该公司计划开放大型模型微调流程的举措,也体现了其对开放性的承诺,而此时大多数美国AI公司都将其最好的模型保持闭源,仅通过API提供访问。目前,中国拥有的前沿开源AI模型比美国更多,这些模型正被世界各地的许多公司和研究人员使用。

Murati表示,她希望Tinker能帮助扭转商业AI模型日益封闭的趋势。“如果你考虑一下前沿实验室正在做什么,以及学术界其他聪明人在做什么,他们正在越来越多地分道扬镳,”她说。“如果你考虑这些强大的系统如何进入世界,那可不是一件好事。”

更新 2025年10月3日 下午1:45(美国东部时间):本文已更新,以澄清Thinking Machines Lab联合创始人John Schulman的引述。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。

0

评论区