Probabilistic time series forecasting is crucial in many application domains such as retail, ecommerce, finance, or biology. With the increasing availability of large volumes of data, a number of neural architectures have been proposed for this problem. In particular, Transformer-based methods achieve state-of-the-art performance on real-world benchmarks. However, these methods require a large number of parameters to be learned, which imposes high memory requirements on the computational resources for training such models. To address this problem, we introduce a novel Bidirectional Temporal Convolutional Network (BiTCN), which requires an order of magnitude less parameters than a common Transformer-based approach. Our model combines two Temporal Convolutional Networks (TCNs): the first network encodes future covariates of the time series, whereas the second network encodes past observations and covariates. We jointly estimate the parameters of an output distribution via these two networks. Experiments on four real-world datasets show that our method performs on par with four state-of-the-art probabilistic forecasting methods, including a Transformer-based approach and WaveNet, on two point metrics (sMAPE, NRMSE) as well as on a set of range metrics (quantile loss percentiles) in the majority of cases. Secondly, we demonstrate that our method requires significantly less parameters than Transformer-based methods, which means the model can be trained faster with significantly lower memory requirements, which as a consequence reduces the infrastructure cost for deploying these models.


翻译:在零售、电子商务、金融或生物学等许多应用领域,预测概率性时间序列对于零售、电子商务、金融或生物学等许多应用领域至关重要。随着大量数据的供应量不断增加,为此提出了若干神经结构。特别是,以变换器为基础的方法在现实世界基准上实现了最新水平的性能。然而,这些方法需要大量需要学习的参数,这对培训这些模型的计算资源规定了很高的记忆要求。为了解决这个问题,我们引入了一个新的双向时间变迁网络(BiTCN),这需要比通用变换器为基础的方法要少一个数量级的参数。我们的模式结合了两个时变换器网络:第一个网络编码了时间序列的未来共变数,而第二个网络则编码了过去观测和变换。我们共同估计了通过这两个网络进行输出分配的参数。 四个基于真实世界的模型的实验显示,我们的方法与四种以更先进的稳定性预测方法相匹配,这四种以变换器为基础的预测方法为基础,包括变换器式变换式的系统成本模型,以及移动式网络中两种方法的计算结果。

0
下载
关闭预览

相关内容

专知会员服务
28+阅读 · 2021年8月2日
【新书】Python编程基础,669页pdf
专知会员服务
187+阅读 · 2019年10月10日
已删除
将门创投
5+阅读 · 2020年3月2日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Forecasting Global Weather with Graph Neural Networks
Arxiv
35+阅读 · 2021年1月27日
Arxiv
7+阅读 · 2019年6月20日
VIP会员
相关VIP内容
专知会员服务
28+阅读 · 2021年8月2日
【新书】Python编程基础,669页pdf
专知会员服务
187+阅读 · 2019年10月10日
相关资讯
已删除
将门创投
5+阅读 · 2020年3月2日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员