Forecasting graph-based time-dependent data has many practical applications. This task is challenging as models need not only to capture spatial dependency and temporal dependency within the data, but also to leverage useful auxiliary information for accurate predictions. In this paper, we analyze limitations of state-of-the-art models on dealing with temporal dependency. To address this limitation, we propose GSA-Forecaster, a new deep learning model for forecasting graph-based time-dependent data. GSA-Forecaster leverages graph sequence attention (GSA), a new attention mechanism proposed in this paper, for effectively capturing temporal dependency. GSA-Forecaster embeds the graph structure of the data into its architecture to address spatial dependency. GSA-Forecaster also accounts for auxiliary information to further improve predictions. We evaluate GSA-Forecaster with large-scale real-world graph-based time-dependent data and demonstrate its effectiveness over state-of-the-art models with 6.7% RMSE and 5.8% MAPE reduction.


翻译:预测基于图表的时间依赖数据有许多实际应用。 这项任务具有挑战性,因为模型不仅需要在数据中捕捉空间依赖性和时间依赖性,而且还需要利用有用的辅助信息进行准确预测。 在本文中,我们分析了处理时间依赖性的最新模型的局限性。为解决这一局限性,我们提议GSA-Forecaster,这是一个用于预测基于图表的时间依赖数据的新的深层学习模型。 GSA-Forecaster 杠杆序列关注(GSA),这是本文中提议的一种新的关注机制,可有效捕捉时间依赖性。 GSA-Forecaster将数据的图表结构嵌入其结构,以解决空间依赖性问题。 GSA-Forecaster 还为辅助信息进行核算,以进一步改进预测。我们用大规模基于实时图表的时间依赖性数据来评估GSA-Forester,并展示其相对于以6.7%的 RMSE和5.8%的MAPE为削减率的状态艺术模型的有效性。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
77+阅读 · 2020年2月3日
Spatial Group-wise Enhance算法详解
人工智能前沿讲习班
9+阅读 · 2019年6月13日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
深度学习循环神经网络详解
七月在线实验室
16+阅读 · 2018年5月28日
论文浅尝 | Leveraging Knowledge Bases in LSTMs
开放知识图谱
6+阅读 · 2017年12月8日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
Arxiv
0+阅读 · 2021年12月11日
Arxiv
35+阅读 · 2021年1月27日
Signed Graph Attention Networks
Arxiv
7+阅读 · 2019年9月5日
VIP会员
相关VIP内容
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
77+阅读 · 2020年2月3日
相关资讯
Spatial Group-wise Enhance算法详解
人工智能前沿讲习班
9+阅读 · 2019年6月13日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
深度学习循环神经网络详解
七月在线实验室
16+阅读 · 2018年5月28日
论文浅尝 | Leveraging Knowledge Bases in LSTMs
开放知识图谱
6+阅读 · 2017年12月8日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
Top
微信扫码咨询专知VIP会员