图卷积网络 (GCNs) 允许对图结构数据进行端到端的学习。然而,许多研究假设给定的图结构。当输入图噪声较大或不可用时,一种方法是构建或学习一个潜在的图结构。这些方法通常为整个图固定节点的度选择,这是次优的。相反,我们提出了一种新颖的端到端可微图生成器,该生成器构建图拓扑结构,其中每个节点选择其邻域及其大小。我们的模块可以轻松集成到现有涉及图卷积操作的流程中,用学到的并作为总目标的一部分进行优化的邻接矩阵替换预定的或现有的邻接矩阵。因此,它适用于任何GCN。我们将我们的模块集成到轨迹预测、点云分类和节点分类流程中,结果显示,在各种数据集和GCN背景下,与其他结构学习方法相比,我们的方法具有更高的准确性。我们将发布代码。

成为VIP会员查看完整内容
18

相关内容

【NeurIPS2022】具有自适应读出的图神经网络
专知会员服务
18+阅读 · 2022年11月11日
【CVPR2022】多视图聚合的大规模三维语义分割
专知会员服务
20+阅读 · 2022年4月20日
专知会员服务
25+阅读 · 2021年9月10日
专知会员服务
68+阅读 · 2021年4月27日
专知会员服务
19+阅读 · 2020年12月9日
【WSDM2021】保存节点相似性的图卷积网络
专知会员服务
40+阅读 · 2020年11月22日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
专知会员服务
49+阅读 · 2020年8月27日
【AAAI2023】图序注意力网络
专知
5+阅读 · 2022年11月24日
NeurIPS'22 | 具有自适应读出的图神经网络
图与推荐
1+阅读 · 2022年11月11日
【NeurIPS2022】具有自适应读出的图神经网络
【NeurIPS2022】基于最大熵编码的自监督学习
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2023年9月8日
Arxiv
159+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
VIP会员
相关VIP内容
【NeurIPS2022】具有自适应读出的图神经网络
专知会员服务
18+阅读 · 2022年11月11日
【CVPR2022】多视图聚合的大规模三维语义分割
专知会员服务
20+阅读 · 2022年4月20日
专知会员服务
25+阅读 · 2021年9月10日
专知会员服务
68+阅读 · 2021年4月27日
专知会员服务
19+阅读 · 2020年12月9日
【WSDM2021】保存节点相似性的图卷积网络
专知会员服务
40+阅读 · 2020年11月22日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
专知会员服务
49+阅读 · 2020年8月27日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员