📢 转载信息
原文作者:Vinod Chugani
大多数预测工作涉及为每个数据集构建定制模型——在这里拟合一个 ARIMA 模型,在那里调整 Prophet 的超参数。基础模型颠覆了这一传统。它们在海量的(massive amounts of)时间序列数据上进行预训练,并且可以在无需额外训练的情况下预测新模式,这与 GPT 可以在从未明确见过的*主题*上进行写作的方式相似。本列表涵盖了您在 2026 年构建生产级预测系统所需了解的五个基础模型。
从特定任务模型转向基础模型编排(orchestration)改变了团队处理预测问题的方式。预训练模型已经理解了通用的时间模式,因此团队不再需要花费数周时间为每个新数据集调整参数和整合领域知识。团队可以获得更快的部署速度、跨领域的更好泛化能力,以及在不进行广泛机器学习基础设施投入的情况下降低计算成本。
1. Amazon Chronos-2(面向生产的基础模型)
对于转向基础模型预测的团队来说,Amazon Chronos-2 是最成熟的选择。这类预训练 Transformer 模型基于 T5 架构,通过缩放(scaling)和量化(quantization)对时间序列值进行分词处理——将预测视为一个语言建模任务。2025 年 10 月的发布扩展了其能力,使其能够支持单变量(univariate)、多变量(multivariate)以及协变量信息(covariate-informed)的预测。
该模型开箱即用即可提供最先进的零样本预测,其性能持续超越经过调优的统计模型,在单个 GPU 上每秒可处理 300 多个预测。Chronos-2 在 Hugging Face 拥有数百万次下载,并与 AWS 的 SageMaker 和 AutoGluon 等工具原生集成,在所有基础模型中拥有最强大的文档和社区支持。该架构提供五种尺寸,参数量从 900 万到 7.1 亿不等,团队可以根据计算限制来平衡性能。您可以在 GitHub 上查看实现,在 研究论文 中回顾技术方法,或从 Hugging Face 获取预训练模型。
2. Salesforce MOIRAI-2(通用预测器)
Salesforce MOIRAI-2 通过其通用预测架构,解决了处理混乱的现实世界时间序列数据的实际挑战。这款仅解码器(decoder-only)的 Transformer 基础模型可以在单一框架内适应任何数据频率、任何数量的变量和任何预测长度。该模型的“Any-Variate Attention”机制可以动态调整以适应多变量时间序列,而无需固定的输入维度,这使其区别于专为特定数据结构设计的模型。
在不涉及数据泄露(data-leaking)的模型中,MOIRAI-2 在 GIFT-Eval 排行榜上名列前茅,在分布内(in-distribution)和零样本任务上均表现出色。它在 LOTSA 数据集(包含九个域的 270 亿观测值)上进行训练,使其对新预测场景具有强大的泛化能力。团队受益于完全开源的开发和积极的维护,这使其对于涉及多个变量和不规则频率的复杂现实世界应用极具价值。该项目的 GitHub 仓库 包含实现细节,而 技术论文 和 Salesforce 博客文章 解释了其通用预测方法。预训练模型可在 Hugging Face 上获取。
3. Lag-Llama(开源骨干)
Lag-Llama 通过一个受 Meta LLaMA 架构启发的仅解码器 Transformer,为基础模型带来了概率预测能力。与仅产生点预测(point forecasts)的模型不同,Lag-Llama 为每个预测步骤生成完整的概率分布和不确定性区间——这是决策过程所需的量化不确定性。该模型使用滞后特征(lagged features)作为协变量,并在用小数据集进行微调时展现出强大的少样本学习(few-shot learning)能力。
其完全开源和宽松的许可使其对任何规模的团队都易于使用,而其在 CPU 或 GPU 上运行的能力则消除了基础设施的障碍。在主要机器学习会议上发表的学术支持为其增加了可信度。对于那些优先考虑透明度、可复现性和概率输出而非原始性能指标的团队来说,Lag-Llama 提供了一个可靠的基础模型骨干。其 GitHub 仓库 包含实现代码,而 研究论文 详细介绍了其概率预测方法。
4. Time-LLM(LLM 适配器)
Time-LLM 采取了不同的方法,它通过将现有的大型语言模型(LLM)转换为预测系统,而无需修改原始模型权重。这种重新编程(reprogramming)框架将时间序列块转换为文本原型,使 GPT-2、LLaMA 或 BERT 等冻结的 LLM 能够理解时间模式。其“Prompt-as-Prefix”技术通过自然语言注入领域知识,因此团队可以利用现有的语言模型基础设施来执行预测任务。
这种适配器方法非常适合已经在生产环境中运行 LLM 的组织,因为它消除了部署和维护单独预测模型的需要。该框架支持多种骨干模型,可以轻松地随着新版本的出现而在不同的 LLM 之间切换。Time-LLM 代表了预测领域的“代理式人工智能”(agentic AI)方法,即通用语言理解能力可以迁移到时间模式识别上。可以通过 GitHub 仓库 访问其实现,或在 研究论文 中回顾其方法。
5. Google TimesFM(大厂标准)
Google TimesFM 提供了企业级基础模型预测能力,其背后是世界上最大的技术研究组织之一。这款基于块(patch-based)的仅解码器模型,使用来自 Google 内部数据集的 1000 亿个真实世界时间点进行预训练,在跨多个域中实现了强大的零样本性能,且只需最少的配置。该模型的设计优先考虑大规模的生产部署,反映了其源自 Google 内部预测工作负载的特性。
TimesFM 已经通过 Google 生产环境中的广泛使用进行了实战检验,这增强了团队在业务场景中部署基础模型的信心。该模型平衡了性能和效率,在保持准确性的同时避免了比其竞争对手更大的模型的计算开销。Google Research 的持续支持意味着其将不断发展和维护,使 TimesFM 成为寻求企业级基础模型能力的团队的可靠选择。您可以通过 GitHub 仓库 访问该模型,在 技术论文 中回顾其架构,或在 Google Research 博客文章 中阅读实现细节。
结论
基础模型将时间序列预测从一个模型训练问题转变为模型选择问题。Chronos-2 提供了生产成熟度,MOIRAI-2 处理复杂的多变量数据,Lag-Llama 提供概率输出,Time-LLM 利用现有的 LLM 基础设施,而 TimesFM 则提供企业级的可靠性。根据您在不确定性量化、多变量支持、基础设施限制和部署规模等方面的具体需求来评估这些模型。在投入微调或定制开发之前,可以先在具有代表性的数据集上进行零样本评估,以确定哪个基础模型最适合您的预测需求。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区