📢 转载信息
原文链接:https://openai.com/index/cerebras-partnership
原文作者:OpenAI
2026年1月14日
OpenAI 与 Cerebras 合作
OpenAI 宣布与 Cerebras 合作,将为我们的平台增加 750MW 的超低延迟 AI 计算能力。
Cerebras 构建了专为 AI 设计的系统,旨在加速 AI 模型长输出的生成。其独特的超快速度来自于将大规模计算能力、内存和带宽集成在单个巨大芯片上,从而消除了传统硬件上减缓推理速度的瓶颈。
将 Cerebras 集成到我们现有的计算解决方案组合中,其核心目标是让我们的 AI 响应速度快得多。当您提出一个难题、生成代码、创建图像或运行 AI 智能体时,后台都会发生一个循环:您发送请求,模型进行思考,然后返回结果。当 AI 能够实时响应时,用户会使用得更多,停留时间更长,并运行更高价值的工作负载。
我们将在多个阶段将这种低延迟能力集成到我们的推理堆栈中,并扩展到各类工作负载。
OpenAI 的 Sachin Katti 表示:“OpenAI 的计算战略是构建一个弹性化的计算组合,将正确的系统匹配到正确的工作负载上。Cerebras 为我们的平台增加了一个专用的低延迟推理解决方案。这意味着更快的响应、更自然的交互,以及一个更强大的基础,可以将实时 AI 扩展到更多用户。”
Cerebras 联合创始人兼首席执行官 Andrew Feldman 表示:“我们很高兴与 OpenAI 合作,将全球领先的 AI 模型带到全球最快的 AI 处理器上。正如宽带改变了互联网一样,实时推理将改变人工智能,从而开启构建和交互 AI 模型的前所未有的新方式。”
该计算能力将分多个批次在 2028 年之前投入使用。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区