目 录CONTENT

文章目录

Inception 获 5000 万美元种子轮融资,旨在为代码和文本构建扩散模型

Administrator
2025-11-07 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://techcrunch.com/2025/11/06/inception-raises-50-million-to-build-diffusion-models-for-code-and-text/

原文作者:Russell Brandom


随着大量资金涌入AI初创公司,对于有想法要验证的AI研究人员来说,现在是个好时机。如果这个想法足够新颖,或许比在大公司内部实验室工作更容易获得独立创业所需的资源。

这就是Inception的故事。这家开发基于扩散模型的AI初创公司刚刚完成了5000万美元的种子轮融资,由Menlo Ventures领投,Mayfield、Innovation Endeavors、微软的M12基金、Snowflake Ventures、Databricks Investment以及英伟达的风险投资部门NVentures参与跟投。Andrew NgAndrej Karpathy也提供了额外的天使投资。

该项目的领导者是斯坦福大学教授Stefano Ermon,他的研究重点是扩散模型——这类模型通过迭代细化而非逐字生成输出来工作。这些模型驱动着像Stable Diffusion、Midjourney和Sora这样的图像AI系统。Ermon自AI热潮兴起之前就开始研究这些系统,他现在正利用Inception将相同的模型应用于更广泛的任务。

伴随此次融资,该公司发布了其Mercury模型的新版本,该模型专为软件开发设计。Mercury已经集成到包括ProxyAI、Buildglare和Kilo Code在内的多个开发工具中。Ermon表示,最重要的是,扩散方法将有助于Inception的模型在两个最重要的指标上实现节约:延迟(响应时间)和计算成本

“这些基于扩散的LLM比目前其他人构建的模型要快得多,效率也高得多,”Ermon说。“这是一种完全不同的方法,仍有许多创新可以被引入。”

要理解技术上的差异,需要一些背景知识。扩散模型在结构上与主导文本AI服务的自回归模型(auto-regression models)不同。像GPT-5和Gemini这样的自回归模型是顺序工作的,它们根据先前处理的材料来预测下一个词或词片段。而为图像生成训练的扩散模型则采取更全面的方法,通过迭代地修改响应的整体结构,直到它匹配所需的结果。

传统观念认为,文本应用应使用自回归模型,这种方法在最近几代AI模型中取得了巨大的成功。但是,越来越多的研究表明,当模型需要处理大量文本管理数据限制时,扩散模型可能会表现得更好。正如Ermon所说,当对大型代码库执行操作时,这些特性就成为了真正的优势。




扩散模型在硬件利用方面也具有更大的灵活性,这一点在AI的基础设施需求变得明确时尤为重要。自回归模型必须一个接一个地执行操作,而扩散模型可以同时处理许多操作,从而在复杂任务中实现显著更低的延迟。

“我们的基准测试显示速度超过每秒1000个Token,这远远高于使用现有自回归技术所能达到的水平,”Ermon说,“因为我们的技术是并行构建的。它就是为了实现超快速度而构建的。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区