目 录CONTENT

文章目录

Mistral推出Mistral 3开源模型家族,缩小与大型AI竞争对手的差距

Administrator
2025-12-03 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://techcrunch.com/2025/12/02/mistral-closes-in-on-big-ai-rivals-with-mistral-3-open-weight-frontier-and-small-models/

原文作者:Rebecca Bellan


法国AI初创公司Mistral周二发布了其全新的Mistral 3系列开源模型——共计10个模型,其中包括一个具备多模态多语言能力的前沿模型,以及九个更小、可离线运行、完全可定制的模型。

此次发布正值Mistral(这家开发开源语言模型和专注于欧洲的AI聊天机器人Le Chat的公司)似乎正在追赶硅谷的一些闭源前沿模型之际。这家成立两年的初创公司由前DeepMind和Meta的研究人员创立,迄今已融资约27亿美元,估值为137亿美元——与竞争对手如OpenAI(融资57亿美元,估值5000亿美元)和Anthropic(F轮融资130亿美元,估值3500亿美元)的融资规模相比,简直是“毛毛雨”。

但Mistral正试图证明,尤其对于企业用例而言,更大并不总是更好

Mistral联合创始人兼首席科学家Guillaume Lample告诉TechCrunch:“我们的客户有时乐于从一个他们无需微调的[闭源]大模型开始……但当他们部署时,他们会发现它很昂贵,而且速度很慢。”他接着说,“然后他们会找我们来微调小型模型,以便更高效地处理用例。”

Lample继续说道:“在实践中,绝大多数企业用例都可以通过小型模型来解决,特别是如果对它们进行微调的话。”

Lample表示,初步的基准测试比较将Mistral的小型模型置于闭源竞争对手之下,但这可能具有误导性。大型闭源模型开箱即用性能可能更好,但真正的优势体现在定制化之后。

“在许多情况下,你实际上可以匹配甚至超越闭源模型的性能,”他说。

法国人正在发力 👀

Ministral 3 8B 2512, Vision, Apache 2.0 pic.twitter.com/kUAvgSGoqX

— Xeophon @ NeurIPS 🇺🇸 (@xeophon_) November 30, 2025

Mistral的前沿大型模型,名为Mistral Large 3,赶上了OpenAI的GPT-4o和Google的Gemini等大型闭源AI模型的一些重要能力,同时也与几家开源竞争对手展开了竞争。Large 3是首批集多模态和多语言能力于一身的开源前沿模型之一,使其与Meta的Llama 3和阿里巴巴的Qwen3-Omni处于同一水平。许多其他公司目前是将令人印象深刻的大型语言模型与单独的较小多模态模型配对使用,Mistral此前也通过Pixtral和Mistral Small 3.1等模型采取过这种做法。

Large 3还采用了“颗粒化专家混合(granular Mixture of Experts)”架构,拥有410亿个活跃参数和6750亿个总参数,支持256k的上下文窗口,能实现高效推理。这种设计兼顾了速度和能力,使其能够处理长文档,并作为处理复杂企业任务的代理助手。Mistral认为Large 3适用于文档分析、编码、内容创作、AI助手和工作流自动化。

在其小型模型系列,即Ministral 3中,Mistral大胆宣称小型模型不仅是“足够好”,而且是“更优越的”。

该系列包括三个尺寸(14B、8B和3B参数)和三种变体(Base:预训练基础模型;Instruct:针对对话和助手工作流程优化;Reasoning:针对复杂逻辑和分析任务优化)的九个独立、高性能的密集模型。

Mistral表示,这种范围为开发者和企业提供了根据其确切性能需求匹配模型的灵活性,无论他们追求的是原始性能、成本效益还是专业能力。该公司声称,Ministral 3在关键指标上与其它开源领导者持平或更优,同时效率更高,处理同等任务时生成的Token更少。所有变体均支持视觉、处理128K-256K的上下文窗口,并支持跨语言操作。

其宣传的一个主要卖点是实用性。Lample强调,Ministral 3可以在单个GPU上运行,这意味着它可以在经济实惠的硬件上部署——从本地服务器到笔记本电脑、机器人以及其他连接受限的边缘设备。这对那些希望将数据保留在内部的企业,以及那些寻求离线反馈的学生或在偏远环境中操作的机器人团队来说都非常重要。Lample认为,更高的效率直接转化为更广泛的可及性。

“我们的使命之一是确保AI对每个人都是可访问的,特别是那些没有互联网接入的人,”他说。“我们不希望AI仅由两三家大实验室控制。”

一些其他公司也在追求类似的效率权衡:Cohere最新的企业模型Command A也仅需两块GPU即可运行,而其AI代理平台North仅需一块GPU即可运行。

正是这种可及性推动了Mistral日益增长的实体AI重点。今年早些时候,该公司开始致力于将小型模型集成到机器人、无人机和车辆中。Mistral正与新加坡的家庭事务科技局 (HTX) 合作开发用于机器人、网络安全系统和消防安全的专业模型;与德国国防技术初创公司Helsing合作开发用于无人机的视觉-语言-动作模型;并与汽车制造商Stellantis合作开发车载AI助手。

对Mistral而言,可靠性和独立性与性能同等重要。

“使用我们竞争对手的API,如果它每两周停机半小时——如果你是一家大公司,你是无法承受的,”Lample说。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区