目 录CONTENT

文章目录

Mistral 新型超快翻译模型让大型AI实验室倍感压力

Administrator
2026-02-05 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/mistral-voxtral-real-time-ai-translation/

原文作者:Joel Khalili


Mistral AI 发布了一系列新的AI模型,据称将为不同语言的人们之间的无缝对话扫清道路。

周三,这家总部位于巴黎的AI实验室发布了两款新的语音转文本模型:Voxtral Mini Transcribe V2Voxtral Realtime。前者旨在对大型音频文件进行批量转录,后者则用于近乎实时的转录,延迟在200毫秒内;两者都支持13种语言的翻译。Voxtral Realtime以开源许可证免费提供。

据Mistral称,这些模型拥有四亿参数,体积小到足以在手机或笔记本电脑上本地运行——这是语音转文本领域的首创——这意味着私密对话无需发送到云端。Mistral表示,这些新模型的运行成本更低,且比竞争对手的替代方案更少出错。

Mistral将Voxtral Realtime(尽管该模型输出的是文本而非语音)定位为跨越语言障碍的自由交流的显著一步,这也是AppleGoogle也在努力解决的问题。谷歌最新的模型能够以两秒的延迟进行翻译。

Mistral科学运营副总裁皮埃尔·斯托克(Pierre Stock)在接受WIRED采访时声称:“我们正在构建一个可以无缝翻译的系统。这个模型基本上为此奠定了基础。”他补充说:“我认为这个问题将在2026年得到解决。”


Mistral由Meta和Google DeepMind的校友于2023年创立,是少数几家在能力上能与美国市场领导者——OpenAI、Anthropic和Google——相媲美的欧洲公司之一,并且能够远程运行其基础AI模型。


由于无法获得同等规模的资金和算力,Mistral一直专注于通过富有想象力的模型设计和对训练数据集的精心优化来挤出性能。其目标是通过模型开发的各个方面的微小改进,转化为切实的性能提升。斯托克声称:“坦率地说,过多的GPU会让你变得懒惰。”“你只是盲目地测试很多东西,但你没有思考通往成功的最短路径是什么。”

Mistral的旗舰大型语言模型(LLM)在原始能力上确实不敌美国竞争对手开发的模型。但该公司通过在价格和性能之间达成妥协,开辟了一个市场。萨里大学数字经济中心主任安娜贝尔·高尔(Annabelle Gawer)表示:“Mistral提供了一种更具成本效益的替代方案,其模型规模不大,但足够好,而且可以公开共享。”“它可能不是一辆F1赛车,但它是一辆非常高效的家用汽车。”


与此同时,随着其美国同行将数千亿美元投入到通用人工智能(AGI)的竞赛中,Mistral正在构建一系列专业化(尽管不如AGI性感)的模型,用于执行特定任务,例如语音转文本。

高尔说:“Mistral并不将自己定位为小众玩家,但它确实在创建专业化的模型。”“作为拥有资源的美国参与者,你希望拥有非常强大的通用技术。你不想浪费资源去针对特定行业或地理区域的语言和特殊性进行微调。你把这种不太赚钱的业务留给别人,这就为中间玩家创造了空间。”

随着美国与其欧洲盟友的关系出现恶化迹象,Mistral也越来越多地倾向于其欧洲根基。IT咨询公司PAC的首席分析师丹·比勒(Dan Bieler)表示:“欧洲有一种趋势,公司,特别是政府,非常仔细地审视他们对美国软件和AI公司的依赖程度。”

在此背景下,Mistral将自己定位为最可靠的选择:一个本土的欧洲、多语言、开源的替代方案,对抗在美国开发的专有模型。科技咨询公司D’Ornano + Co.的创始人拉斐尔·多纳诺(Raphaëlle D’Ornano)说:“他们的问题一直是:在一个被巨额资助的美国参与者主导的市场中,我们如何建立一个可防御的地位?”“Mistral迄今为止采取的方法是,他们希望成为主权替代方案,遵守欧盟可能存在的任何法规。”

尽管与美国巨头的性能差距依然存在,但随着企业需要衡量AI投资回报并考虑地缘政治背景,比勒预测,针对行业和区域特定需求进行调整的小型模型将迎来它们的时刻。

比勒声称:“LLM是主导讨论的巨头,但我不会指望这种情况永远持续下去。”“规模更小、区域化更集中的模型将在未来发挥更大的作用。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区