📢 转载信息
原文链接:https://blogs.nvidia.com/blog/mistral-frontier-open-models/
原文作者:Kari Briski
今天,Mistral AI 宣布 推出 Mistral 3 系列开源多语言、多模态模型,这些模型已在英伟达的超级计算和边缘平台上进行了优化。
Mistral Large 3 是一款混合专家(MoE)模型——它不像激活每个神经元来处理每个 token,而是只激活对模型影响最大的部分。其结果是,它在不造成浪费的情况下实现了规模化、在不妥协准确性的前提下实现了精确度,使企业级AI不仅是可行的,而且是实用的。
Mistral AI 的新模型为企业级AI提供了行业领先的准确性和效率。从 12 月 2 日星期二开始,这些模型将无处不在,涵盖从云到数据中心再到边缘。
Mistral Large 3 拥有 410 亿个活动参数、6750 亿个总参数以及一个 256K 的大型上下文窗口,为企业级AI工作负载提供了可扩展性、效率和适应性。
通过结合 NVIDIA GB200 NVL72 系统和 Mistral AI 的 MoE 架构,企业可以高效地部署和扩展大型AI模型,从而受益于先进的并行化和硬件优化。
这种结合标志着我们正迈向一个“分布式智能”的时代——这是 Mistral AI 所称的,它弥合了研究突破与现实世界应用之间的鸿沟。
该模型的细粒度 MoE 架构通过利用英伟达 NVLink 的一致内存域和使用宽专家并行优化,释放了大规模专家并行带来的全部性能优势。
这些优势与准确性保持不变的低精度 NVFP4 和 NVIDIA Dynamo 分离式推理优化相结合,确保了大规模训练和推理的最佳性能。
在 GB200 NVL72 上,Mistral Large 3 与上一代 NVIDIA H200 相比,实现了 10 倍的性能提升。这种代际提升转化为更好的用户体验、更低的每个 token 成本和更高的能源效率。
Mistral AI 不仅在最前沿的大型语言模型方面推动技术发展;它还发布了九个小型语言模型,帮助开发人员在任何地方运行 AI。
紧凑型 Mistral 3 套件经过优化,可在包括 NVIDIA Spark、RTX PC 和笔记本电脑以及 NVIDIA Jetson 设备在内的英伟达边缘平台上运行。
为了提供最佳性能,英伟达与 Llama.cpp 和 Ollama 等顶级 AI 框架合作,以确保在边缘的 NVIDIA GPU 上实现最佳性能。
今天,开发者和爱好者可以通过 Llama.cpp 和 Ollama 试用 Ministral 3 套件,体验快速高效的边缘 AI。
Mistral 3 模型系列是公开可用的,赋能全球研究人员和开发人员试验、定制和加速 AI 创新,同时实现前沿技术的普及化。
通过将 Mistral AI 的模型与用于 AI 智能体生命周期开发的开源 NVIDIA NeMo 工具(Data Designer、Customizer、Guardrails 和 NeMo Agent Toolkit)连接起来,企业可以针对自己的用例对这些模型进行进一步定制,从而更快地从原型转向生产。
为了实现从云到边缘的效率,英伟达已针对 Mistral 3 模型系列优化了包括 NVIDIA TensorRT-LLM、SGLang 和 vLLM 在内的推理框架。
Mistral 3 现已在领先的开源平台和云服务提供商上可用。此外,这些模型预计很快将作为 NVIDIA NIM 微服务部署。
无论 AI 需要去哪里,这些模型都已准备就绪。
请参阅有关软件产品信息的声明。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区