We propose NonStGGM, a general nonparametric graphical modeling framework for studying dynamic associations among the components of a nonstationary multivariate time series. It builds on the framework of Gaussian Graphical Models (GGM) and stationary time series Gaussian Graphical model (StGGM), and complements existing works on parametric graphical models based on change point vector autoregressions (VAR). Analogous to StGGM, the proposed framework captures conditional noncorrelations (both intertemporal and contemporaneous) in the form of an undirected graph. In addition, to describe the more nuanced nonstationary relationships among the components of the time series, we introduce the new notion of conditional nonstationarity/stationarity and incorporate it within the graph architecture. This allows one to distinguish between direct and indirect nonstationary relationships among system components, and can be used to search for small subnetworks that serve as the "source" of nonstationarity in a large system. Together, the two concepts of conditional noncorrelation and nonstationarity/stationarity provide a parsimonious description of the dependence structure of the time series.


翻译:我们提议采用非StGGM,这是一个用于研究非静止多变时间序列各组成部分之间动态联系的一般非参数图形模型框架,它以Gaussian图形模型(GGM)和固定时间序列(StGGM)的框架为基础,并补充基于改变点矢量自动反射(VAR)的参数图形模型的现有工作。对StGGM的模拟,拟议的框架以非方向图形的形式,捕捉有条件的非协调(时际和时际)关系。此外,为了描述时间序列各组成部分之间更为微妙的非静态关系,我们引入了条件性非静止/静态新概念,并将其纳入图形结构。这样可以区分系统各组成部分之间的直接和间接非静止关系,并可用于搜索大系统中作为不静止“源”的小型子网络。同时,两个条件性非同步和非静止/静态概念提供了对时间序列依赖性的描述。

0
下载
关闭预览

相关内容

《图形模型》是国际公认的高评价的顶级期刊,专注于图形模型的创建、几何处理、动画和可视化,以及它们在工程、科学、文化和娱乐方面的应用。GMOD为其读者提供了经过彻底审查和精心挑选的论文,这些论文传播令人兴奋的创新,传授严谨的理论基础,提出健壮和有效的解决方案,或描述各种主题中的雄心勃勃的系统或应用程序。 官网地址:http://dblp.uni-trier.de/db/journals/cvgip/
专知会员服务
76+阅读 · 2021年3月16日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
149+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Arxiv
0+阅读 · 2021年11月12日
Arxiv
0+阅读 · 2021年11月10日
Arxiv
10+阅读 · 2021年8月4日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
3+阅读 · 2017年12月18日
VIP会员
相关资讯
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
相关论文
Arxiv
0+阅读 · 2021年11月12日
Arxiv
0+阅读 · 2021年11月10日
Arxiv
10+阅读 · 2021年8月4日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
3+阅读 · 2017年12月18日
Top
微信扫码咨询专知VIP会员