目 录CONTENT

文章目录

OpenAI 与 Cerebras 合作,为平台增加超低延迟 AI 计算能力

Administrator
2026-01-15 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://openai.com/index/cerebras-partnership

原文作者:OpenAI


2026年1月14日

OpenAI 与 Cerebras 合作

OpenAI 宣布与 Cerebras 合作,将为我们的平台增加 750MW 的超低延迟 AI 计算能力。

OpenAI and Cerebras logos displayed side by side, separated by a vertical line, on a blue-green gradient background.

Cerebras 构建了专为 AI 设计的系统,旨在加速 AI 模型长输出的生成。其独特的超快速度来自于将大规模计算能力、内存和带宽集成在单个巨大芯片上,从而消除了传统硬件上减缓推理速度的瓶颈。


将 Cerebras 集成到我们现有的计算解决方案组合中,其核心目标是让我们的 AI 响应速度快得多。当您提出一个难题、生成代码、创建图像或运行 AI 智能体时,后台都会发生一个循环:您发送请求,模型进行思考,然后返回结果。当 AI 能够实时响应时,用户会使用得更多,停留时间更长,并运行更高价值的工作负载。


我们将在多个阶段将这种低延迟能力集成到我们的推理堆栈中,并扩展到各类工作负载。


OpenAI 的 Sachin Katti 表示:“OpenAI 的计算战略是构建一个弹性化的计算组合,将正确的系统匹配到正确的工作负载上。Cerebras 为我们的平台增加了一个专用的低延迟推理解决方案。这意味着更快的响应、更自然的交互,以及一个更强大的基础,可以将实时 AI 扩展到更多用户。”


Cerebras 联合创始人兼首席执行官 Andrew Feldman 表示:“我们很高兴与 OpenAI 合作,将全球领先的 AI 模型带到全球最快的 AI 处理器上。正如宽带改变了互联网一样,实时推理将改变人工智能,从而开启构建和交互 AI 模型的前所未有的新方式。”


该计算能力将分多个批次在 2028 年之前投入使用。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区