在各种机器学习和数据分析任务中,学习一个图的拓扑以揭示数据实体之间的底层关系扮演着重要的角色。在结构化数据在图上平滑变化的假设下,问题可以表示为正半定锥上的正则凸优化,并用迭代算法求解。经典的方法需要一个显式凸函数来反映一般的拓扑先验,例如为增强稀疏性而使用L1惩罚,这限制了学习丰富拓扑结构的灵活性和表达性。基于学习优化(L2O)的思想,我们提出学习从节点数据到图结构的映射。具体来说,我们的模型首先展开了一个迭代原对偶分裂算法到神经网络。关键结构的近端投影被一个变分自编码器取代,该编码器用增强的拓扑特性来改进估计图。模型以端到端方式训练,使用成对的节点数据和图样本。在合成和真实数据上的实验表明,在学习具有特定拓扑性质的图时,我们的模型比经典的迭代算法更有效。

https://www.zhuanzhi.ai/paper/b14639f0742ba74db5cc07a572dd92a7

成为VIP会员查看完整内容
24

相关内容

【AAAI2022】学会学习可迁移攻击
专知会员服务
15+阅读 · 2021年12月15日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
95+阅读 · 2021年5月25日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
专知会员服务
45+阅读 · 2020年10月22日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
Meta-Learning 元学习:学会快速学习
GAN生成式对抗网络
20+阅读 · 2018年12月8日
ICML2018 模仿学习教程
专知
6+阅读 · 2018年7月14日
Arxiv
17+阅读 · 2021年2月15日
Arxiv
5+阅读 · 2020年8月28日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Deep Graph Infomax
Arxiv
17+阅读 · 2018年12月21日
VIP会员
相关VIP内容
【AAAI2022】学会学习可迁移攻击
专知会员服务
15+阅读 · 2021年12月15日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
95+阅读 · 2021年5月25日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
专知会员服务
45+阅读 · 2020年10月22日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
相关资讯
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
Meta-Learning 元学习:学会快速学习
GAN生成式对抗网络
20+阅读 · 2018年12月8日
ICML2018 模仿学习教程
专知
6+阅读 · 2018年7月14日
微信扫码咨询专知VIP会员