近年来,为了提高学习任务在图数据集上的性能,人们提出了各种图对比学习模型。虽然有效且普遍,但这些模型通常是经过仔细定制的。特别是,尽管所有最近的研究都创建了两种对比的视角,但它们在视图增强、架构和目标方面存在很大差异。如何针对特定的图学习任务和数据集从零开始建立你的图对比学习模型仍然是一个开放的问题。本文旨在通过研究对比学习过程中图信息的转换和转移,提出一种信息感知的图对比学习框架InfoGCL,以填补这一空白。这个框架的关键是遵循信息瓶颈原则减少相互之间的信息对比部分,同时保持任务相关信息完整的单个模块的水平和整个框架,信息损失在图表示学习可以最小化。我们首次表明,所有最近的图对比学习方法可以统一在我们的框架。我们在节点和图分类基准数据集上验证了我们的理论分析,并证明我们的算法明显优于目前的水平。

https://arxiv.org/abs/2110.15438

成为VIP会员查看完整内容
36

相关内容

专知会员服务
14+阅读 · 2021年10月18日
专知会员服务
31+阅读 · 2021年8月7日
专知会员服务
37+阅读 · 2021年6月19日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【AAAI2021】图卷积网络中的低频和高频信息作用
专知会员服务
58+阅读 · 2021年1月6日
【NeurIPS2020】针对弱监督目标检测的综合注意力自蒸馏
专知会员服务
31+阅读 · 2020年11月12日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
KDD20 | AM-GCN:自适应多通道图卷积网络
专知
8+阅读 · 2020年8月26日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
Arxiv
0+阅读 · 2021年12月29日
Arxiv
31+阅读 · 2018年11月13日
Arxiv
3+阅读 · 2018年2月11日
Arxiv
7+阅读 · 2018年1月10日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关VIP内容
专知会员服务
14+阅读 · 2021年10月18日
专知会员服务
31+阅读 · 2021年8月7日
专知会员服务
37+阅读 · 2021年6月19日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【AAAI2021】图卷积网络中的低频和高频信息作用
专知会员服务
58+阅读 · 2021年1月6日
【NeurIPS2020】针对弱监督目标检测的综合注意力自蒸馏
专知会员服务
31+阅读 · 2020年11月12日
【NeurIPS2020 】 数据扩充的图对比学习
专知会员服务
48+阅读 · 2020年11月9日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
相关资讯
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【NeurIPS2020 】数据扩充的图对比学习
专知
9+阅读 · 2020年11月9日
KDD20 | AM-GCN:自适应多通道图卷积网络
专知
8+阅读 · 2020年8月26日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
相关论文
微信扫码咨询专知VIP会员