近年来,图增强在图对比学习(GCL)中受到了广泛关注,以学习具有良好泛化性的节点/图表示。然而,主流的GCL方法常常偏爱随机破坏图进行增强,这种方法的泛化能力有限,并且不可避免地会破坏高级图信息,即图社区。此外,当前基于知识的图增强方法只能关注拓扑或节点特征之一,导致模型对各种类型的噪声缺乏鲁棒性。为了解决这些限制,本研究探讨了图社区在图增强中的作用,并发现了其对可学习图增强的关键优势。基于我们的观察,我们提出了一个社区不变的GCL框架,以在可学习的图增强过程中保持图社区结构。通过最大化光谱变化,该框架统一了拓扑和特征增强的约束,增强了模型的鲁棒性。在21个基准数据集上的实证证据展示了我们框架的独特优势。代码已在Github上发布[https://github.com/CI-GCL.git]。

成为VIP会员查看完整内容
19

相关内容

【ICML2024】超图增强的双半监督图分类
专知会员服务
11+阅读 · 5月9日
【NeurIPS 2023】基于时间注意力的多任务强化学习对比模块
【NeurIPS2023】半监督端到端对比学习用于时间序列分类
专知会员服务
29+阅读 · 2023年10月17日
【KDD2023】任务等变图少样本学习
专知会员服务
16+阅读 · 2023年6月8日
【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
45+阅读 · 2022年7月10日
专知会员服务
14+阅读 · 2021年7月21日
专知会员服务
36+阅读 · 2021年6月19日
专知会员服务
36+阅读 · 2021年4月25日
【KDD2020】图神经网络生成式预训练
专知
21+阅读 · 2020年7月3日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
133+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
327+阅读 · 2023年3月31日
Arxiv
19+阅读 · 2022年10月10日
Arxiv
67+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2021年2月26日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关VIP内容
【ICML2024】超图增强的双半监督图分类
专知会员服务
11+阅读 · 5月9日
【NeurIPS 2023】基于时间注意力的多任务强化学习对比模块
【NeurIPS2023】半监督端到端对比学习用于时间序列分类
专知会员服务
29+阅读 · 2023年10月17日
【KDD2023】任务等变图少样本学习
专知会员服务
16+阅读 · 2023年6月8日
【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
45+阅读 · 2022年7月10日
专知会员服务
14+阅读 · 2021年7月21日
专知会员服务
36+阅读 · 2021年6月19日
专知会员服务
36+阅读 · 2021年4月25日
相关基金
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
相关论文
Arxiv
133+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
327+阅读 · 2023年3月31日
Arxiv
19+阅读 · 2022年10月10日
Arxiv
67+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2021年2月26日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
26+阅读 · 2018年2月27日
微信扫码咨询专知VIP会员