With large quantities of data typically available nowadays, forecasting models that are trained across sets of time series, known as Global Forecasting Models (GFM), are regularly outperforming traditional univariate forecasting models that work on isolated series. As GFMs usually share the same set of parameters across all time series, they often have the problem of not being localised enough to a particular series, especially in situations where datasets are heterogeneous. We study how ensembling techniques can be used with generic GFMs and univariate models to solve this issue. Our work systematises and compares relevant current approaches, namely clustering series and training separate submodels per cluster, the so-called ensemble of specialists approach, and building heterogeneous ensembles of global and local models. We fill some gaps in the approaches and generalise them to different underlying GFM model types. We then propose a new methodology of clustered ensembles where we train multiple GFMs on different clusters of series, obtained by changing the number of clusters and cluster seeds. Using Feed-forward Neural Networks, Recurrent Neural Networks, and Pooled Regression models as the underlying GFMs, in our evaluation on six publicly available datasets, the proposed models are able to achieve significantly higher accuracy than baseline GFM models and univariate forecasting methods.


翻译:由于目前通常可以获得大量数据,因此,在一系列时间序列(称为全球预测模型(GFM))中经过培训的预测模型往往优于在孤立序列中发挥作用的传统单向预测模型。由于GFMs通常在所有时间序列中共享相同的参数,因此往往有问题不能被定位到一个特定系列,特别是在数据集各不相同的情况下。我们研究如何利用通用的GFMs和单向模型组合组合技术来解决这一问题。我们的工作系统化和比较相关的当前方法,即集群和每组培训单独的子模型、所谓的专家组合办法以及建立全球和地方模型的多元组合。我们填补了方法中的一些空白,将其概括到不同的基础GFM模式类型。我们然后提出一个新的组合组合组合方法,我们通过改变组群和集种子的数量来培训不同系列的多个GFMFMs。我们的工作系统化的系统化和比较了相关的当前方法,即:组合组合组合组合、组合式组合式组合式和培训子模型、所谓的专家组合式组合式组合式、以及组合式组合式组合式组合式组合式组合式组合式和组合式后回归模型,我们现有的六个基础式的GMFMFM预测模型是基础的6级模型的基础,而不是基础式的可靠模型。

0
下载
关闭预览

相关内容

【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
Arxiv
0+阅读 · 2021年2月23日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
Top
微信扫码咨询专知VIP会员