目 录CONTENT

文章目录

ElevenLabs 首席执行官:语音是人工智能的下一个交互界面

Administrator
2026-02-06 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://techcrunch.com/2026/02/05/elevenlabs-ceo-voice-is-the-next-interface-for-ai/

原文作者:Rebecca Bellan


ElevenLabs 联合创始人兼首席执行官 Mati Staniszewski 表示,语音正成为人工智能的下一个主要界面——随着模型超越文本和屏幕,人们与机器互动的方式将越来越多地依赖语音。

在多哈举行的 Web Summit 上,Staniszewski 告诉 TechCrunch,像 ElevenLabs 开发的语音模型最近已经超越了简单地模仿人类语音(包括情感和语调),而是开始与大型语言模型的推理能力协同工作。他认为,其结果是人们与技术互动方式的转变。


他表示,在未来几年里,“希望我们所有的手机都能回到口袋里,而语音将成为控制技术的机制,让我们能够沉浸在我们周围的真实世界中。”

正是这种愿景推动了 ElevenLabs 本周以 110 亿美元的估值 成功完成 5 亿美元的融资,并且这一愿景正被整个 AI 行业广泛认同。OpenAIGoogle 都已将语音作为其下一代模型的核心焦点,而苹果公司似乎正通过 收购 Q.ai 等公司来悄悄构建与语音相关的、始终在线的技术。随着人工智能扩展到可穿戴设备、汽车和其他新硬件中,控制方式正从敲击屏幕转向更多地依靠说话,这使得语音成为人工智能发展的下一阶段的关键战场。

Iconiq Capital 的普通合伙人 Seth Pierrepont 在 Web Summit 的台上也呼应了这一观点,他认为,虽然屏幕在游戏和娱乐方面仍将很重要,但键盘等传统输入方式已经开始显得“过时”了。

Pierrepont 表示,随着人工智能系统变得越来越具有代理性(agentic),交互方式本身也将随之改变,模型将获得必要的护栏、集成和上下文,从而以更少的明确提示来回应用户。

Staniszewski 指出,这种代理性的转变是当前正在发生的最大变化之一。他表示,未来的语音系统将不再需要用户拼出每条指令,而是越来越多地依赖于随着时间积累的持久记忆和上下文,使交互感觉更自然,并减少用户的操作负担。


他补充说,这种演变将影响语音模型的部署方式。虽然高质量的音频模型大多运行在云端,但 Staniszewski 表示,ElevenLabs 正在朝着一种结合了云端和设备端处理的混合方法努力——此举旨在支持新的硬件,包括耳机和其他可穿戴设备,在这些设备上,语音将成为持续的伴侣,而不是用户决定何时启动的功能。

ElevenLabs 已经与 Meta 合作,将其语音技术带入 Instagram 和 Horizon Worlds(Meta 的虚拟现实平台)等产品。Staniszewski 表示,随着语音驱动的界面扩展到新的形态因素,他也愿意与 Meta 在其 Ray-Ban 智能眼镜上进行合作。

但是,随着语音变得更加持久和嵌入日常硬件中,这也为隐私、监控以及这些基于语音的系统在更贴近用户日常生活时将存储多少个人数据打开了大门——这也是像 Google 这样的公司已经被指控滥用的方面。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区