目 录CONTENT

文章目录

2026 年时间序列工具包:用于自主预测的 5 个基础模型

Administrator
2026-01-22 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://machinelearningmastery.com/the-2026-time-series-toolkit-5-foundation-models-for-autonomous-forecasting/

原文作者:Vinod Chugani


2026 Time Series Foundation Models Autonomous Forecasting

2026 年时间序列工具包:5 个用于自主预测的基础模型
图片作者:Author

引言

大多数预测工作涉及为每个数据集构建定制模型——在这里拟合一个 ARIMA 模型,在那里调整一个 LSTM 的超参数,或者与 Prophet 的超参数进行一番周折。基础模型彻底颠覆了这种模式。它们在海量的历史时间序列数据上进行了预训练,并且可以在无需额外训练的情况下预测新模式,这与 GPT 能够撰写它从未明确见过的论题类似。本列表涵盖了您在 2026 年构建生产级预测系统所需了解的五个基础模型。

从任务特定的模型转向基础模型的编排,改变了团队处理预测问题的方式。预训练模型已经理解了通用的时间模式,不再需要团队花费数周时间为每个新数据集调整参数和梳理领域专业知识。团队可以实现更快的部署、更好的跨领域泛化能力以及更低的计算成本,而无需广泛的机器学习基础设施。

1. Amazon Chronos-2(面向生产的基础模型)

对于正在转向基础模型预测的团队来说,Amazon Chronos-2 是最成熟的选择。这一系列预训练的 Transformer 模型基于 T5 架构,通过缩放和量化将时间序列值进行分词处理——将预测视为一个语言建模任务。2025 年 10 月的发布扩展了其功能,以支持单变量、多变量和协变量信息预测。

该模型开箱即用即可提供最先进的零样本(zero-shot)预测能力,其性能持续超越经过调优的统计模型,在一块 GPU 上每秒可处理 300 多个预测。Chronos-2 在 Hugging Face 上的下载量达数百万次,并与 SageMakerAutoGluon 等 AWS 工具原生集成,在所有基础模型中拥有最强的文档和社区支持。该架构有五种尺寸,参数量从 900 万到 7.1 亿不等,因此团队可以在性能和计算限制之间取得平衡。您可以在 GitHub 上查看实现,在 研究论文中审阅技术方法,或从 Hugging Face 获取预训练模型。

2. Salesforce MOIRAI-2(通用预测器)

Salesforce MOIRAI-2 通过其通用预测架构解决了处理混乱、真实世界时间序列数据的实际挑战。这款仅解码器(decoder-only)的 Transformer 基础模型可以在单个框架内适应任何数据频率、任意数量的变量和任何预测长度。该模型的“任意变量注意力”(Any-Variate Attention)机制能够动态适应多变量时间序列,而无需固定的输入维度,这使其区别于专为特定数据结构设计的模型。

在不泄露数据的情况下,MOIRAI-2 在 GIFT-Eval 排行榜上名列前茅,在分布内任务和零样本任务上均表现强劲。通过对 LOTSA 数据集(包含九个领域共 270 亿个观测值)进行训练,该模型对新预测场景具有强大的泛化能力。团队可以受益于完全开源的开发和积极的维护,使其对于涉及多个变量和不规则频率的复杂现实世界应用极具价值。该项目的 GitHub 仓库中包含实现细节,而 技术论文Salesforce 博客文章解释了通用预测方法。预训练模型可在 Hugging Face 上获取。

3. Lag-Llama(开源骨干)

Lag-Llama 通过受 Meta 的 LLaMA 架构启发的仅解码器 Transformer,为基础模型带来了概率预测能力。与仅生成点预测的模型不同,Lag-Llama 会为每个预测步骤生成带有不确定性区间的完整概率分布——这是决策过程所需的量化不确定性。该模型使用滞后特征作为协变量,并在用少量数据集进行微调时显示出强大的少样本(few-shot)学习能力。

完全开源的特性和宽松的许可使其对任何规模的团队都具有可访问性,而其在 CPU 或 GPU 上运行的能力则消除了基础设施障碍。主要机器学习会议上的学术发表为其提供了验证。对于优先考虑透明度、可复现性以及概率输出而非原始性能指标的团队来说,Lag-Llama 提供了一个可靠的基础模型骨干。其 GitHub 仓库包含实现代码,而 研究论文详细介绍了概率预测方法。

4. Time-LLM(LLM 适配器)

Time-LLM 采取了不同的方法,它在不修改原始模型权重的情况下,将现有的大型语言模型(LLM)转换为预测系统。这种重编程框架将时间序列块转换为文本原型,使像 GPT-2、LLaMA 或 BERT 这样的冻结 LLM 能够理解时间模式。“提示即前缀”(Prompt-as-Prefix)技术通过自然语言注入领域知识,因此团队可以利用他们现有的语言模型基础设施来完成预测任务。

对于已经在生产环境中运行 LLM 的组织来说,这种适配器方法非常有效,因为它无需部署和维护单独的预测模型。该框架支持多种骨干模型,使得随着新版本 LLM 的发布可以轻松切换。Time-LLM 代表了预测的“具身 AI”(agentic AI)方法,其中通用语言理解能力转移到了时间模式识别上。通过其 GitHub 仓库可以访问实现,或者通过 研究论文审阅其方法论。

5. Google TimesFM(大型科技标准)

Google TimesFM 提供了企业级的基础模型预测能力,其背后是全球最大的技术研究组织之一。这款基于块(patch-based)的仅解码器模型,使用来自 Google 内部数据集的 1000 亿个真实时间点进行预训练,在多个领域实现了强大的零样本性能,只需最少的配置。该模型的设计优先考虑大规模的生产部署,反映了其源自 Google 内部预测工作负载的背景。

TimesFM 经过了 Google 生产环境中广泛使用的实战检验,这为在商业场景中部署基础模型的团队带来了信心。该模型平衡了性能和效率,在保持准确性竞争力的同时,避免了较大模型的计算开销。Google Research 的持续支持意味着开发和维护的不断进步,使 TimesFM 成为寻求企业级基础模型能力的团队的可靠选择。您可以通过 GitHub 仓库访问该模型,在 技术论文中审阅架构,或在 Google Research 博客文章中阅读实现细节。

结论

基础模型将时间序列预测从一个模型训练问题转变为一个模型选择挑战。Chronos-2 提供了生产的成熟度,MOIRAI-2 处理复杂的多变量数据,Lag-Llama 提供概率输出,Time-LLM 利用现有的 LLM 基础设施,而 TimesFM 则提供企业级的可靠性。根据您在不确定性量化、多变量支持、基础设施限制和部署规模等方面的具体需求来评估模型。应先在代表性数据集上进行零样本评估,以确定最适合您预测需求的基础模型,然后再投入微调或定制开发。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区