Granger Causality (GC) offers an elegant statistical framework to study the association between multivariate time series data. Vector autoregressive models (VAR) are simple and easy to fit, but have limited application because of their inherent inability to capture more complex (e.g., non-linear) associations. Numerous attempts have already been made in the literature that exploit the functional approximation power of deep neural networks (DNNs) for GC. However, these methods treat GC as a variable selection problem. We present a novel paradigm for investigating the learned GC from a single neural network used for joint modeling of all components of multivariate time series data, which is essentially linked with prediction and assessing the distribution shift in residuals. A deep learning model, with proper regularization, may learn the true GC structure when jointly used for all components of the time series when there is sufficient training data. We propose to uncover the learned GC structure by comparing the model uncertainty or distribution of the residuals when the past of everything is used as compared to the one where a specific time series component is dropped from the model. We also compare the effect of input layer dropout on the ability of a neural network to learn GC. We show that a well-regularized model can learn the true GC structure from the data without explicitly adding terms in the loss function that guide the model to select variables or perform sparse regression under specific settings. We also provide a comparison of deep learning architectures such as CNN, LSTM and transformer models on their ability to discover Granger Causality. The numerical experiments demonstrate that, compared to sparse regression models, a simple joint model is a strong baseline for learning the true GC which has the advantage that it does not require tuning of many extra hyper-parameters.


翻译:格兰杰因果关系(Granger Causality, GC)为研究多元时间序列数据之间的关联提供了一个优雅的统计框架。向量自回归模型(VAR)简单且易于拟合,但由于其固有的无法捕捉更复杂(例如非线性)关联的局限性,应用范围有限。已有大量文献尝试利用深度神经网络(DNNs)的函数逼近能力来处理GC问题。然而,这些方法将GC视为一个变量选择问题。我们提出了一种新颖的范式,用于从单个神经网络中探究其学习到的GC,该网络用于对多元时间序列数据的所有分量进行联合建模,这本质上与预测及评估残差的分布偏移相关联。一个经过适当正则化的深度学习模型,当有足够训练数据时,若被联合用于时间序列的所有分量,则可能学习到真实的GC结构。我们提出通过比较两种情况下模型的不确定性或残差分布来揭示学习到的GC结构:一种是使用所有变量的过去信息作为输入,另一种是从模型中剔除特定的时间序列分量。我们还比较了输入层丢弃(dropout)对神经网络学习GC能力的影响。我们证明,在特定设置下,一个经过良好正则化的模型可以从数据中学习到真实的GC结构,而无需在损失函数中显式添加引导模型选择变量或执行稀疏回归的项。我们还比较了CNN、LSTM和Transformer等深度学习架构在发现格兰杰因果关系方面的能力。数值实验表明,与稀疏回归模型相比,一个简单的联合模型是学习真实GC的强基线,其优势在于无需调整许多额外的超参数。

0
下载
关闭预览

相关内容

【WWW2024】博弈论式反事实解释图神经网络
专知会员服务
32+阅读 · 2024年2月17日
AAAI 2022 | ProtGNN:自解释图神经网络
专知会员服务
40+阅读 · 2022年2月28日
【ICLR2022】Vision Transformer 模型工作机制的最新理论
专知会员服务
43+阅读 · 2022年2月19日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
11+阅读 · 2019年6月16日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Arxiv
0+阅读 · 12月17日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员