首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
5543
篇文章
累计创建
1934
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
Mixture-of-Experts
相关的文章
2026-02-21
宣称“从 0 构建”,印度 AI 实验室 Sarvam 发布两款 MoE 架构 LLM
印度 AI 实验室 Sarvam 发布了两款基于 MoE 架构的最新一代大语言模型,并宣称其 105B-A9B 模型在本地化印度语言基准测试中超越了谷歌 Gemini 2.5 Flash。这两款模型均以开源权重形式在 Hugging Face 上提供,旨在推动印度及全球 AI 发展。较小模型支持 32K 上下文窗口,适用于低延迟应用;较大模型支持 128K 上下文窗口,满足更严苛需求。此次发布标志着 Sarvam 在自研大模型领域取得重要进展。
2026-02-21
0
0
0
AI基础/开发
AI新闻/评测
2026-02-20
英伟达Blackwell架构将AI推理成本压缩至十分之一
英伟达Blackwell架构在AI推理领域实现了重大突破,通过极致的软硬件协同设计,将单位Token的生成成本相比上一代Hopper架构降低了惊人的90%,即压缩至十分之一。多家推理服务商已开始利用该平台托管开源模型,实现了显著的成本缩减和效率提升。旗舰系统GB200 NVL72凭借其72个芯片互联和高速共享内存,完美适配当前主流的混合专家(MoE)架构需求,为AI基础设施带来了革命性的效率提升。
2026-02-20
0
0
0
AI基础/开发
AI新闻/评测
2026-02-12
NVIDIA Nemotron 3 Nano 30B MoE 模型现已在 Amazon SageMaker JumpStart 中提供
我们很高兴地宣布,NVIDIA Nemotron 3 Nano 30B(含3B激活参数)MoE 模型现已在 Amazon SageMaker JumpStart 模型目录中正式发布。开发者无需管理复杂的模型部署,即可利用 SageMaker JumpStart 的托管部署能力,快速在 AWS 上为生成式AI应用提供动力。该模型在编码和推理方面表现出色,支持高达100万个Token的上下文窗口。
2026-02-12
2
0
0
AI新闻/评测
AI工具应用
AI基础/开发
2026-02-10
谷歌 Gemini 1.5 Pro 预览版发布:原生支持 100 万上下文窗口,可处理 1500 页文档或 1 小时视频
谷歌正式推出了下一代 AI 模型 Gemini 1.5 Pro 预览版,该模型最引人注目的升级是其原生支持高达 100 万个上下文 token,在特定情况下甚至可扩展至 200 万 token。这一能力使其能够一次性处理海量信息,例如完整的书籍、11 小时的音频或 1 小时的视频内容,从而极大地提升了 AI 的理解和推理深度。Gemini 1.5 Pro 采用了新的 Mixture-of-Experts (MoE) 架构,在保持高性能的同时,显著提高了推理效率和速度,为开发者和企业带来了更...
2026-02-10
1
0
0
AI新闻/评测
AI基础/开发
AI工具应用