图神经网络(GNNs)已经成为从图结构数据中学习的主要方法。然而,当图结构不理想时,它们的有效性可能会受到显著影响。为了解决这一问题,图结构学习(GSL)作为一种有前景的技术应运而生,它能够自适应地优化节点之间的连接。然而,我们发现现有GSL方法存在两个关键限制:1)大多数方法主要关注节点相似性来构建关系,而忽视了节点信息的质量。盲目连接低质量节点并聚合其模糊信息可能会降低其他节点的性能。2)构建的图结构通常被限制为对称结构,这可能会限制模型的灵活性和有效性。 为克服这些限制,我们提出了一种基于不确定性的图结构学习(UnGSL)策略。UnGSL估计节点信息的不确定性,并利用它来调整方向性连接的强度,其中高不确定性的节点的影响会自适应地减弱。重要的是,UnGSL作为一个插件模块,可以无缝地集成到现有的GSL方法中,且仅需最小的额外计算成本。在我们的实验中,我们将UnGSL实现到六种具有代表性的GSL方法中,展示了持续的性能提升。代码可在此链接获取:https://github.com/UnHans/UnGSL。

成为VIP会员查看完整内容
6

相关内容

【KDD2024】面向鲁棒推荐的决策边界感知图对比学习
专知会员服务
21+阅读 · 2024年8月8日
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
39+阅读 · 2023年6月4日
【AAAI2023】基于Dirichlet元模型的事后不确定性学习
专知会员服务
16+阅读 · 2022年12月16日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
37+阅读 · 2022年10月4日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
46+阅读 · 2021年12月14日
【NeurIPS2021】序一致因果图的多任务学习
专知会员服务
20+阅读 · 2021年11月7日
专知会员服务
66+阅读 · 2021年7月25日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
17+阅读 · 2020年6月26日
国家自然科学基金
15+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
165+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
431+阅读 · 2023年3月31日
Arxiv
72+阅读 · 2023年3月26日
Arxiv
22+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
VIP会员
相关VIP内容
【KDD2024】面向鲁棒推荐的决策边界感知图对比学习
专知会员服务
21+阅读 · 2024年8月8日
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
39+阅读 · 2023年6月4日
【AAAI2023】基于Dirichlet元模型的事后不确定性学习
专知会员服务
16+阅读 · 2022年12月16日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
37+阅读 · 2022年10月4日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
46+阅读 · 2021年12月14日
【NeurIPS2021】序一致因果图的多任务学习
专知会员服务
20+阅读 · 2021年11月7日
专知会员服务
66+阅读 · 2021年7月25日
相关基金
国家自然科学基金
15+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
Arxiv
165+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
431+阅读 · 2023年3月31日
Arxiv
72+阅读 · 2023年3月26日
Arxiv
22+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
微信扫码咨询专知VIP会员