This work proposes an algorithmic framework to learn time-varying graphs from online data. The generality offered by the framework renders it model-independent, i.e., it can be theoretically analyzed in its abstract formulation and then instantiated under a variety of model-dependent graph learning problems. This is possible by phrasing (time-varying) graph learning as a composite optimization problem, where different functions regulate different desiderata, e.g., data fidelity, sparsity or smoothness. Instrumental for the findings is recognizing that the dependence of the majority (if not all) data-driven graph learning algorithms on the data is exerted through the empirical covariance matrix, representing a sufficient statistic for the estimation problem. Its user-defined recursive update enables the framework to work in non-stationary environments, while iterative algorithms building on novel time-varying optimization tools explicitly take into account the temporal dynamics, speeding up convergence and implicitly including a temporal-regularization of the solution. We specialize the framework to three well-known graph learning models, namely, the Gaussian graphical model (GGM), the structural equation model (SEM), and the smoothness-based model (SBM), where we also introduce ad-hoc vectorization schemes for structured matrices (symmetric, hollows, etc.) which are crucial to perform correct gradient computations, other than enabling to work in low-dimensional vector spaces and hence easing storage requirements. After discussing the theoretical guarantees of the proposed framework, we corroborate it with extensive numerical tests in synthetic and real data.


翻译:这项工作提议了一个从在线数据中学习时间变化图的算法框架。 框架所提供的一般性使得它具有模型独立性, 也就是说, 它可以在抽象的公式中进行理论上的分析, 然后在各种模型依赖的图形学习问题下进行即时分析。 它的用户定义的循环更新使得框架能够在非静止环境中运作, 而迭代算法则建立在新的时间变化优化工具上, 明确考虑到时间变化动态, 加速趋同, 隐含解决方案的时序变正化。 我们将框架专门用于三种众所周知的图表学习模型, 即, 由数据驱动的图表学习算法(如果不是全部的话) 通过经验变异矩阵对数据的依赖性算法, 代表了对估算问题的充分统计。 用户定义的循环更新使得框架能够在非静止环境中工作, 而迭接式算法则是在新的时间变化优化工具上明确考虑到时间变化动态, 加速趋同, 并隐含了解决方案的时序。 我们将框架专门用于三种众所周知的图表学习模型模型模型, 即, 数字图形模型( GGGGM) 的图表模型(GGM), 和 结构结构模型的计算模型是, 模型是用于我们进行 的平整级的基的,,, 结构的计算模型, 结构的计算模型是, 结构的平流的计算模型,,, 结构的平流的计算模型,,, 结构的计算模型, 结构的计算模型, 模型, 结构的计算模型, 结构的模型,, 结构的计算模型是,,, 结构模型是,, 结构模型,, 结构模型是,,,,,, 结构的模型是,,, 结构的计算模型, 结构的模型, 结构的模型是, 模型, 模型是, 结构的 模型,, 结构的 结构的 结构的 模型是, 结构的模型是, 结构的模型是, 模型是, 结构的 结构的 结构的 模型是,我们的 结构的 的,,,,, 的,,, 结构的 结构的 结构的 结构的 结构的

0
下载
关闭预览

相关内容

零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
【课程】纽约大学 DS-GA 1003 Machine Learning
专知会员服务
44+阅读 · 2019年10月29日
强化学习最新教程,17页pdf
专知会员服务
169+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
小样本学习(Few-shot Learning)综述
机器之心
18+阅读 · 2019年4月1日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年12月16日
Arxiv
10+阅读 · 2021年11月3日
Arxiv
7+阅读 · 2021年10月19日
Arxiv
13+阅读 · 2019年11月14日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
7+阅读 · 2018年12月26日
Arxiv
6+阅读 · 2018年12月10日
Arxiv
3+阅读 · 2018年2月7日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
小样本学习(Few-shot Learning)综述
机器之心
18+阅读 · 2019年4月1日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
0+阅读 · 2021年12月16日
Arxiv
10+阅读 · 2021年11月3日
Arxiv
7+阅读 · 2021年10月19日
Arxiv
13+阅读 · 2019年11月14日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
7+阅读 · 2018年12月26日
Arxiv
6+阅读 · 2018年12月10日
Arxiv
3+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员