许多实际应用需要对长序列时间序列进行预测,例如用电计划。长序列时间序列预测(LSTF)对模型的预测能力要求很高,即能够高效捕获输出和输入之间精确的长程依赖。近年来的研究表明,Transformer 具有提高预测能力的潜力。然而,Transformer 存在几个严重的问题,因而无法直接应用于 LSTF,比如二次时间复杂度、高内存使用率以及编码器 - 解码器架构的固有局限。

为解决这些问题,该研究为 LSTF 设计了一个基于高效 transformer 的模型——Informer,该模型具备三个特征:

1)ProbSparse 自注意力机制,其时间复杂度和内存使用达到 O(L log L),在序列依赖对齐方面具有不错的性能; 2)自注意力蒸馏通过将级联层输入减半来突出注意力,并且能够高效地处理极长的输入序列; 3)尽管生成风格解码器在概念上非常简单,但它会在一次前向操作中预测较长的时序序列,而不是逐步预测,这极大地提高了长序列预测的推断速度。

成为VIP会员查看完整内容
61

相关内容

【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
49+阅读 · 2021年2月7日
【AAAI2021最佳论文】多智能体学习中的探索 - 利用
专知会员服务
35+阅读 · 2021年2月6日
【AAAI2021】记忆门控循环网络
专知会员服务
48+阅读 · 2020年12月28日
【AAAI2021】低资源医疗对话生成的图演化元学习
专知会员服务
47+阅读 · 2020年12月26日
专知会员服务
108+阅读 · 2020年12月22日
专知会员服务
10+阅读 · 2020年9月1日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
IJCAI2020论文:上下文在神经机器翻译中的充分利用
深度学习自然语言处理
5+阅读 · 2020年7月21日
Reformer:一个高效的 Transformer
TensorFlow
9+阅读 · 2020年2月13日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
利用 Universal Transformer,翻译将无往不利!
谷歌开发者
5+阅读 · 2018年9月4日
Arxiv
0+阅读 · 2021年3月29日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
6+阅读 · 2019年7月11日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
VIP会员
相关VIP内容
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
49+阅读 · 2021年2月7日
【AAAI2021最佳论文】多智能体学习中的探索 - 利用
专知会员服务
35+阅读 · 2021年2月6日
【AAAI2021】记忆门控循环网络
专知会员服务
48+阅读 · 2020年12月28日
【AAAI2021】低资源医疗对话生成的图演化元学习
专知会员服务
47+阅读 · 2020年12月26日
专知会员服务
108+阅读 · 2020年12月22日
专知会员服务
10+阅读 · 2020年9月1日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
相关论文
Arxiv
0+阅读 · 2021年3月29日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
6+阅读 · 2019年7月11日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
微信扫码咨询专知VIP会员