📢 转载信息
原文链接:https://www.tmtpost.com/7732893.html
原文作者:TMTPOST
一份新的IDC报告聚焦于AI原生云提供商,将其视为在生成式AI(GenAI)时代推动企业将概念验证(PoC)项目转化为大规模生产的关键力量。该研究点名GMI Cloud和CoreWeave是重新定义AI基础设施的领先者,并引用了它们在技术创新、生态系统集成、产品深度和战略远见方面的优势。
IDC的研究结果表明,尽管传统云巨头仍在计算市场占据主导地位,但新一代的AI原生参与者——那些从底层构建,专注于GPU加速、推理优化和合规性管理的公司——正变得对企业扩展GenAI部署不可或缺。
该报告预测,亚太(APAC)地区GenAI的采用率将呈爆炸式增长。到2025年,预计65%的企业将拥有超过50个投入生产的GenAI用例,其中超过四分之一计划拥有超过100个活跃部署。然而,这种加速也带来了挑战:高性能推理基础设施短缺、日益增长的数据主权压力,以及多云环境中低效的资源调度。
IDC预测,随着大型模型预训练的成熟,市场的重心将转向AI推理——即真实世界应用生成面向用户结果的阶段。到2025年,预计84%的亚太地区组织将使用AI推理基础设施,但近四分之一报告称成本问题是关键障碍。报告总结道,平衡性能与可负担性,现已成为AI基础设施提供商面临的决定性挑战。
IDC提出的解决方案是:企业应优先考虑提供稳定供应链、本地数据中心、混合云灵活性和监管合规性的专用AI基础设施合作伙伴。报告指出,这些标准“与GMI Cloud的核心战略完美契合”。
为应对向推理的转变,GMI Cloud构建了双引擎架构,这与IDC关于“高吞吐量、低延迟、成本优化”AI基础设施的指导意见相呼应。
-
集群引擎 (IaaS 层):
提供模块化和可扩展的资源调度,结合了预留容量和按需容量。它还支持Kubernetes集群管理、InfiniBand虚拟网络和定制的私有云部署,确保了灵活性和数据安全。 -
推理引擎 (MaaS 层):
集成了全球近100个大型语言和生成模型,深度优化了开源模型,以减少API延迟并提高Token吞吐效率。它支持按需模型托管和动态扩展,直接解决了行业面临的成本-性能困境。IDC称之为优化AI部署总拥有成本 (TCO) 的关键。
到2025年10月,GMI Cloud将完成基础升级,创建一个全球统一的混合GPU云系统。此次升级将通过单一管理平面统一AWS、GCP、阿里云和企业私有集群的GPU调度,帮助客户克服“多云孤岛”。凭借在北美、欧洲和亚太地区的本地数据中心,该平台确保了低延迟和区域数据合规性——这对跨国企业来说是双重优势。
IDC的报告强调,供应链稳定性现在是AI基础设施成功的决定性因素。根据调查数据,31.1%的亚太企业认为GPU和高性能基础设施的有限获取是他们扩展GenAI的最大障碍。
在全球GPU短缺(因NVIDIA H200和B200芯片的推出而加剧)的背景下,IDC认为只有拥有强大供应链关系的提供商才能维持可靠的计算接入。“稳定的供应链是AI原生云提供商在市场立足的关键前提,”报告指出。
在此方面,GMI Cloud与NVIDIA的合作使其脱颖而出。作为NVIDIA认证合作伙伴(NCP)以及全球仅有的六个参考平台NCP之一,GMI Cloud建立了下一代GPU的无缝管道。该公司是首批在2024年支持H200、于2025年同步推出GB200,并获得B300资源早期访问权限的公司之一。
IDC指出,这种深度协作使GMI Cloud能够提供“下一代GPU资源的零延迟集成”,通过紧密的软硬件集成,为客户提供不间断的高性能计算能力和最大的GPU利用率。“只有拥有稳定供应链的AI原生云提供商,”IDC写道,“才能真正缓解企业的算力焦虑,并将GenAI从试点推向生产。”
在其“对技术购买者的建议”部分,IDC明确推荐GMI Cloud和CoreWeave作为企业应考虑的首选AI原生提供商。它建议组织优先选择“具有稳定供应链、充足资源和强大技术咨询能力”的合作伙伴。
据IDC称,GMI Cloud的差异化在于其专家驱动的咨询服务。与超大规模云提供商不同,GMI Cloud提供端到端的指导——从GPU分配、AI模型选择到性能优化和多智能体部署——帮助企业弥补“GenAI运营差距”。
IDC中国研究总监陆艳霞在报告中强调,“为多智能体协作的未来做好准备,企业必须重建高性能、可靠且高效的AI基础设施。” IDC将GMI Cloud定位为这一转型的关键推动者,其模式是“技术创新+生态系统集成+区域聚焦”。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区