📢 转载信息
原文链接:https://www.wired.com/story/inside-openai-raid-on-thinking-machines-lab/
原文作者:Maxwell Zeff, Zoë Schiffer
如果有人要为AI行业制作HBO Max剧集,本周的事件将成为精彩的一集。
周三,OpenAI的应用部门CEO Fidji Simo 宣布,公司已重新聘用了Barret Zoph和Luke Metz,他们是Mira Murati的AI初创公司Thinking Machines Lab的联合创始人。Zoph和Metz于2024年底离开了OpenAI。
我们昨晚报道了围绕导致他们离职的两个叙事,并且此后获悉了新的信息。
一位有直接了解的消息人士称,Thinking Machines的高层认为Zoph去年在公司任职期间从事了严重不当行为。消息人士称,该事件破坏了Murati的信任,并扰乱了两人(Zoph和Murati)的工作关系。该消息人士还声称,Murati在周三解雇了Zoph——在她知道他将要去OpenAI之前——原因是该公司声称在声称的不当行为发生后出现了一些问题。大约在公司得知Zoph将返回OpenAI时,Thinking Machines内部对Zoph是否与竞争对手分享了机密信息表示担忧。(Zoph尚未对WIRED的多次置评请求作出回应。)
与此同时,Simo在周三发给员工的备忘录中声称,这些招聘工作已经酝酿数周,并且Zoph在被解雇前于周一告诉Murati,他正在考虑离开Thinking Machines。Simo还告诉员工,OpenAI不认同Thinking Machines对Zoph职业道德的担忧。
根据Simo的宣布,除了Zoph和Metz之外,另一位曾在Thinking Machines工作的OpenAI前研究员Sam Schoenholz也将重返ChatGPT的开发者。据一位知情人士透露,未来几周内,预计还会有至少两名Thinking Machines的员工加入OpenAI。科技记者Alex Heath最先报道了这些额外的人事变动。
另一位知情人士反驳了近期人员变动完全与Zoph有关的看法。他表示:“这已经是Thinking Machines内部长期讨论的一部分。关于公司想要构建什么,存在讨论和分歧——这关乎产品、技术和未来。”
Thinking Machines Lab和OpenAI均拒绝置评。
在这些事件发生后,我们从几家主要AI实验室的研究人员那里了解到,他们对行业内不断的戏剧性事件感到筋疲力尽。这次具体的事件让人联想起OpenAI在2023年短暂罢免Sam Altman的事件,在OpenAI内部被称为“小插曲”(the blip)。根据《华尔街日报》的报道,Murati在当时作为公司的首席技术官,在这一事件中发挥了关键作用。
自Altman被罢免以来,AI行业的戏剧性事件仍在继续,包括xAI的Igor Babuschkin、Safe Superintelligence的Daniel Gross以及Meta的Yann LeCun(毕竟他共同创立了Facebook长期存在的AI实验室FAIR)等几家主要AI实验室的联合创始人相继离职。
有人可能会辩称,对于一个支出正在推动美国GDP增长的新兴行业来说,这些戏剧性事件是合理的。此外,如果你相信这些研究人员中的某一位可能会在通往AGI的道路上取得一些突破,那么追踪他们的去向可能是值得的。
话虽如此,许多研究人员是在ChatGPT取得突破性成功之前就开始工作的,他们似乎对自己的行业现在成为持续关注的焦点感到惊讶。
只要研究人员能够随时筹集到数十亿美元的种子轮融资,我们猜测AI行业的权力更迭步伐将继续加快。HBO Max的编剧们,准备好记录吧。
| 有内幕消息? |
|---|
| 您是当前或前AI研究人员,想谈谈正在发生的事情吗?我们很想听听您的消息。请使用非工作电话或电脑,通过Signal安全联系记者 mzeff.88。 |
AI实验室如何训练智能体来取代你的工作
硅谷的人们几十年来一直在思考AI取代工作的问题。然而,在过去的几个月里,让AI真正从事具有经济价值的工作的努力变得更加复杂和精细。
AI实验室在创建AI智能体时,对所使用的数据更加精明了。上周,WIRED报道称,OpenAI一直在要求来自Handshake公司的第三方承包商上传他们先前工作的真实工作样本,以评估OpenAI的智能体。这些公司要求员工从这些文档中清除所有机密数据和个人身份信息。虽然专家表示,公司机密或姓名可能会因此泄露(如果发生这种情况,OpenAI可能会遇到大麻烦),但这可能不是OpenAI真正想要的。
AI实验室更感兴趣的是获取麦肯锡顾问、高盛投资银行家或哈佛医生的真实工作样本。这就是为什么像Mercor这样的数据供应商专门在其招聘信息中寻找曾在这些公司工作过的专业人士。
Handshake、Mercor、Surge和Turing是AI实验室依赖获取此类数据的几家主要数据供应商。在过去的一年里,数据公司开始向签约顶尖人才为AI实验室提供服务支付每小时高达100美元的费用。
他们使用这些数据的一种方式是创建“环境”,这些本质上是枯燥的电子游戏,用于教AI智能体如何使用企业软件应用。其理念是,AI智能体可以在这些环境中进行测试,学习如何使用专业人士在工作中会使用的真实世界软件。
企业公司Box的首席执行官Aaron Levie表示:“在过去的一年里,各大实验室越来越认识到,他们需要针对包括法律、医疗保健、咨询和银行业在内的整个知识工作领域来训练和微调模型。”Box为OpenAI、Anthropic和Google的模型提供企业智能体。“这些公司一直在雇佣承包商来生成数据集和评分标准,这些是训练和评估模型以便其在特定技能上变得更好的方法。”
这是否足以训练出能够准确、一致地执行办公室任务的AI智能体仍有待观察。过去一年,AI实验室的智能体能力已大有提高,例如Claude Code等病毒式传播的产品就是一个证明,人们正越来越多地将其用于编码以外的任务。如果这能预示着其他行业将发生什么,那么关注这些企业智能体是值得的。
这是Model Behavior 时事通讯的一期。往期通讯请点击此处。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区