📢 转载信息
原文链接:https://www.qbitai.com/2025/10/341421.html
原文作者:量子位
OpenAI与博通官宣合作:联手部署10GW级AI加速器
就在OpenAI与半导体巨头博通(Broadcom)官宣合作之后,双方高层齐聚一堂,爆料了更多关于此次合作的内幕。OpenAI的CEO奥特曼(Sam Altman)和总裁Greg Brockman,以及博通总裁兼CEO Hock Tan等高层悉数到场,透露了许多关键信息。
核心信息是:OpenAI正在加速自研芯片的步伐,并已开始利用AI模型优化芯片设计,效率甚至超过了人类工程师。

10GW规模AI加速器部署计划
根据双方公告,此次合作的重点是共同部署由OpenAI设计的10GW规模的AI加速器。预计博通将于2026年下半年开始部署配备这些加速器和网络系统的机架,并计划在2029年底前完成全部部署。
- OpenAI 负责设计这些加速器与系统,旨在将其在尖端模型和产品开发中获得的经验直接融入硬件。
- 博通 负责合作开发并部署这些系统,将采用其以太网及其他互联解决方案,以满足全球对AI日益增长的需求。

10GW(10000MW)是什么概念?这相当于传统超算中心功率(几百MW)的数十倍,足以支撑OpenAI未来对算力的巨大需求。
高层观点:为AI未来奠定基础
OpenAI CEO奥特曼表示:“与博通的合作是构建解锁AI潜能所需基础设施的关键一步。”
OpenAI总裁Greg Brockman强调:“通过制造我们自己的芯片,我们可以将创造前沿模型与产品的经验直接嵌入硬件,从而解锁新的能力与智能水平。”
博通CEO Hock Tan认为:“这标志着在追求通用人工智能道路上的一个关键时刻。”

自研芯片的四大驱动力
在随后的交流中,OpenAI高管们解释了他们决定自研芯片的深层原因。
1. 深刻理解工作负载与垂直整合的必要性
Greg Brockman透露,OpenAI已经与生态系统中的众多合作伙伴紧密协作,但他们发现市场上现有芯片未能充分服务于某些特定的工作负载。通过“完整的垂直整合”,他们可以构建出专门加速这些特定任务的解决方案。奥特曼本人也承认,他曾反对垂直整合,但现在认为为实现OpenAI的使命,这种深度整合是必要的,就像iPhone的巨大成功一样。
2. 规模带来的历史经验
Greg提到,OpenAI在2017年的一次实验中,无意中发现了“规模”带来的巨大潜力,并开始将其应用于整个AI系统。持续扩展算力是实现AGI的关键。
3. 外部合作受挫与话语权缺失
Greg坦言,在与芯片公司沟通时,当他们提出“模型需要这种形状”的前瞻性需求时,常常得不到重视。他表示:“处于这样一种境地非常令人沮丧,所以未来走向很明确了——没有芯片就没有话语权。”
4. AI驱动的芯片设计
最令人兴奋的一点是,OpenAI已经在用AI模型优化芯片设计,并且比人类工程师更快。Greg形容道:“你拿出人类已经优化过的组件,然后投入计算,模型就会提出自己的优化方案,这非常有趣。”他们目前的设计优化方案,往往是人类专家需要花费数月时间才能考虑到的。

自研的预期效益:效率与智能的双重提升
奥特曼认为,通过优化整个技术栈,OpenAI将能实现巨大的效率提升,能够“从每瓦特中榨取出更多的智能”,从而带来更优的性能、更快的模型和更低的成本。
布局时间线:已进行近两年
据OpenAI芯片设计员工透露,OpenAI过去18个月一直在研发芯片,并且自从o1模型开启推理浪潮以来,他们已经专门设计了一款推理芯片,目标是在大约9个月后实现最大规模量产。

“朋友圈”持续扩大
OpenAI的算力布局已不局限于单一供应商。在此之前,OpenAI已分别与英伟达和AMD达成了合作协议,计划部署至少10GW(英伟达系统)和6GW(AMD系统)规模的AI集群,预计均在2026年下半年开始。


如今,博通的加入,标志着OpenAI正在坚定地走“自研+多合作”的路线,以期从根本上解决算力瓶颈,加速通往AGI的进程。

🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。
青云聚合API官网https://api.qingyuntop.top
支持全球最新300+模型:https://api.qingyuntop.top/pricing
详细的调用教程及文档:https://api.qingyuntop.top/about
评论区