尽管基于Transformer的方法显著改善了长期序列预测的最先进结果,但它们不仅计算成本高,更重要的是,无法捕捉时间序列的全局视图(例如,总体趋势)。为了解决这些问题,我们提出将Transformer与季节趋势分解方法相结合,其中分解方法捕获时间序列的全局剖面,而Transformer捕获更详细的结构。为了进一步增强Transformer的长期预测性能,我们利用了大多数时间序列倾向于以众所周知的基(如傅里叶变换)为基础进行稀疏表示的事实,并开发了频率增强Transformer。该方法被称为频率增强分解变换器(federformer),除具有更高的效率外,它比序列长度线性复杂度的标准变压器效率更高。在6个基准数据集上的实证研究表明,对于多变量和单变量时间序列,FEDformer方法的预测误差分别比现有方法降低了14.8%和22.6%。代码将很快发布。

https://www.zhuanzhi.ai/paper/5786e05d73ef3afa50ace494c3beeb15

成为VIP会员查看完整内容
24

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议,也是CCF-A类学术会议。ICML 2022 共收到5630 投稿,接收1117 篇 short oral,118篇 long oral,录用率为21.94%。
【AAAI2022】注意力机制的快速蒙特卡罗近似
专知会员服务
19+阅读 · 2022年2月5日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
25+阅读 · 2021年9月9日
专知会员服务
21+阅读 · 2021年7月31日
专知会员服务
36+阅读 · 2021年7月17日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
专知会员服务
81+阅读 · 2021年5月10日
【AAAI2021】记忆门控循环网络
专知会员服务
48+阅读 · 2020年12月28日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
15+阅读 · 2022年6月14日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Phase-aware Speech Enhancement with Deep Complex U-Net
Arxiv
16+阅读 · 2018年4月2日
VIP会员
相关VIP内容
【AAAI2022】注意力机制的快速蒙特卡罗近似
专知会员服务
19+阅读 · 2022年2月5日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
25+阅读 · 2021年9月9日
专知会员服务
21+阅读 · 2021年7月31日
专知会员服务
36+阅读 · 2021年7月17日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
专知会员服务
81+阅读 · 2021年5月10日
【AAAI2021】记忆门控循环网络
专知会员服务
48+阅读 · 2020年12月28日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员