Scaling laws motivate the development of Time Series Foundation Models (TSFMs) that pre-train vast parameters and achieve remarkable zero-shot forecasting performance. Surprisingly, even after fine-tuning, TSFMs cannot consistently outperform smaller, specialized models trained on full-shot downstream data. A key question is how to realize effective adaptation of TSFMs for a target forecasting task. Through empirical studies on various TSFMs, the pre-trained models often exhibit inherent sparsity and redundancy in computation, suggesting that TSFMs have learned to activate task-relevant network substructures to accommodate diverse forecasting tasks. To preserve this valuable prior knowledge, we propose a structured pruning method to regularize the subsequent fine-tuning process by focusing it on a more relevant and compact parameter space. Extensive experiments on seven TSFMs and six benchmarks demonstrate that fine-tuning a smaller, pruned TSFM significantly improves forecasting performance compared to fine-tuning original models. This prune-then-finetune paradigm often enables TSFMs to achieve state-of-the-art performance and surpass strong specialized baselines. Source code is made publicly available at https://github.com/SJTU-DMTai/Prune-then-Finetune.


翻译:缩放定律推动了时间序列基础模型的发展,这些模型通过预训练海量参数,在零样本预测任务中取得了卓越性能。然而令人惊讶的是,即使在微调后,TSFM仍无法持续超越使用全量下游数据训练的较小规模专用模型。一个关键问题在于如何实现TSFM对目标预测任务的有效适配。通过对多种TSFM的实证研究发现,预训练模型通常表现出固有的计算稀疏性与冗余性,这表明TSFM已学会激活任务相关的网络子结构以适应多样化的预测任务。为保留这一宝贵的先验知识,我们提出一种结构化剪枝方法,通过将微调过程聚焦于更相关且紧凑的参数空间来实现正则化。在七种TSFM与六个基准数据集上的大量实验表明,相较于微调原始模型,对经过剪枝的轻量化TSFM进行微调能显著提升预测性能。这种"先剪枝后微调"的范式常能使TSFM达到最先进的性能水平,并超越强大的专用基线模型。源代码已公开于https://github.com/SJTU-DMTai/Prune-then-Finetune。

0
下载
关闭预览

相关内容

【AAAI2023】基于Dirichlet元模型的事后不确定性学习
专知会员服务
16+阅读 · 2022年12月16日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
CosFace: Large Margin Cosine Loss for Deep Face Recognition论文笔记
统计学习与视觉计算组
44+阅读 · 2018年4月25日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员