📢 转载信息
原文链接:https://blogs.nvidia.com/blog/nvidia-at-kubecon-2026/
原文作者:Justin Boitano
人工智能已迅速成为现代计算中最关键的工作负载之一。对于绝大多数企业而言,这一负载运行在 Kubernetes 上,这是一个用于自动化容器化应用部署、扩展和管理的开源平台。
为了帮助全球开发者社区以更高的透明度和效率管理高性能 AI 基础设施,NVIDIA 正将一项关键软件——NVIDIA GPU 动态资源分配 (DRA) 驱动——捐赠给云原生计算基金会 (CNCF),这是一个致力于培育和支持云原生生态系统的厂商中立组织。
这一消息在阿姆斯特丹举办的 CNCF 旗舰会议 KubeCon Europe 上正式宣布。此举将该驱动的治理权从厂商转移至 Kubernetes 项目,实现全面的社区共管。这种开放的环境鼓励更广泛的专家圈子贡献想法、加速创新,并确保技术与现代云环境保持一致。
CNCF 首席技术官 Chris Aniszczyk 表示:“NVIDIA 与 Kubernetes 及 CNCF 社区的深度合作,将 NVIDIA GPU DRA 驱动上游化,是开源 Kubernetes 和 AI 基础设施的一个重要里程碑。通过将其硬件创新与上游 Kubernetes 和 AI 一致性工作结合,NVIDIA 正在使高性能 GPU 编排变得无缝且人人可用。”
此外,NVIDIA 还与 CNCF 的机密容器社区合作,引入了对 Kata Containers 的 GPU 支持。这些轻量级虚拟机像容器一样运行,将硬件加速扩展到更强的隔离级别,从而增强 AI 工作负载的安全性。
简化 AI 基础设施
从历史上看,管理数据中心内支持 AI 的强大 GPU 需要付出巨大努力。此次贡献旨在使高性能计算更易于获取。对于开发人员而言,主要优势包括:
- 提高效率:该驱动支持更智能的 GPU 资源共享,通过支持 NVIDIA Multi-Process Service 和 NVIDIA Multi-Instance GPU 技术,有效利用计算能力。
- 海量扩展:它提供连接系统的原生支持,包括 NVIDIA Multi-Node NVlink 互联技术。这对在 NVIDIA Grace Blackwell 系统及下一代 AI 基础设施上训练大型 AI 模型至关重要。
- 灵活性:开发人员可以动态重新配置硬件以满足需求,并即时更改资源分配方式。
- 精确性:该软件支持微调请求,允许用户为其应用程序申请特定的计算能力、内存设置或互联布局。
协作的行业成果
NVIDIA 正在与亚马逊云科技 (AWS)、Broadcom、Canonical、Google Cloud、Microsoft、Nutanix、Red Hat 和 SUSE 等行业领袖合作,共同推动这些功能的进步,造福整个云原生生态系统。
Red Hat 首席技术官兼全球工程高级副总裁 Chris Wright 表示:“开源将成为每个成功企业 AI 策略的核心。NVIDIA 捐赠的 DRA 驱动有助于巩固开源在 AI 演进中的作用,我们期待与 NVIDIA 及 Kubernetes 社区展开进一步合作。”
扩展开源视野
此次捐赠仅是 NVIDIA 支持开源社区更广泛倡议的一部分。例如,在上周的 GTC 大会上,NVIDIA 还宣布了 GPU 故障修复系统 NVSentinel 和智能体 AI 框架 AI Cluster Runtime。
此外,NVIDIA 的高性能 AI 工作负载调度器 KAI Scheduler 已作为 CNCF Sandbox 项目成功上架,这是推动更广泛协作的关键一步。开发者和机构可以立即开始使用和贡献 KAI Scheduler。
开发者和机构现在即可开始使用并向 NVIDIA DRA 驱动贡献代码。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区