图神经网络(GNNs)在各个领域的图结构数据学习中展示了显著的成功。尽管取得了巨大成功,现有工作经常忽视一个关键挑战,即消息传播的学习能否有效地泛化到代表性不足的图区域。这些少数区域经常展示不规则的同质性/异质性模式和多样化的邻域类分布,导致模糊性。在这项工作中,我们研究了GNNs内的模糊性问题,其对表示学习的影响,以及为对抗这一问题而开发的更丰富的监督信号。我们对GNN进行了细致的评估,分析了不同图区域中模糊性的存在及其与节点位置的关系。为了消除节点嵌入的模糊性,我们提出了一种新颖的方法,DisamGCL,它利用额外的优化指导来增强表示学习,特别是对于模糊区域中的节点。DisamGCL基于预测的时间不一致性识别模糊节点,并通过以拓扑感知的方式采用对比学习引入消歧规则化。DisamGCL促进节点表示的区分性,并且可以减轻消息传播引起的语义混合,有效地解决了模糊性问题。经验结果验证了DisamGCL的效率,并突出了其在代表性不足的图区域改善GNN性能的潜力。

成为VIP会员查看完整内容
20

相关内容

图神经网络 (GNN) 是一种连接模型,它通过图的节点之间的消息传递来捕捉图的依赖关系。与标准神经网络不同的是,图神经网络保留了一种状态,可以表示来自其邻域的具有任意深度的信息。近年来,图神经网络(GNN)在社交网络、知识图、推荐系统、问答系统甚至生命科学等各个领域得到了越来越广泛的应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
38+阅读 · 2023年6月4日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
44+阅读 · 2021年12月14日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
37+阅读 · 2021年5月28日
专知会员服务
29+阅读 · 2021年2月26日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
【Twitter】时序图神经网络
专知会员服务
93+阅读 · 2020年10月15日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【ICML2020】图神经网络谱聚类
专知
10+阅读 · 2020年7月7日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
9+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
396+阅读 · 2023年3月31日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
38+阅读 · 2023年6月4日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
44+阅读 · 2021年12月14日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
37+阅读 · 2021年5月28日
专知会员服务
29+阅读 · 2021年2月26日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
【Twitter】时序图神经网络
专知会员服务
93+阅读 · 2020年10月15日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
9+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员