Self-supervised learning methods became a popular approach for graph representation learning because they do not rely on manual labels and offer better generalization. Contrastive methods based on mutual information maximization between augmented instances of the same object are widely used in self-supervised learning of representations. For graph-structured data, however, there are two obstacles to successfully utilizing these methods: the data augmentation strategy and training decoder for mutual information estimation between augmented representations of nodes, sub-graphs, or graphs. In this work, we propose a self-supervised graph representation learning algorithm, Graph Information Representation Learning (GIRL). GIRL does not require augmentations or a decoder for mutual information estimation. The algorithm is based on an alternative information metric, \textit{recoverability}, which is tightly related to mutual information but is less complicated when estimating. Our self-supervised algorithm consistently outperforms existing state-of-the-art contrast-based self-supervised methods by a large margin on a variety of datasets. In addition, we show how the recoverability can be used in a supervised setting to alleviate the effect of over-smoothing/squashing in deeper graph neural networks. The code to reproduce our experiments is available at https://github.com/Anonymous1252022/Recoverability


翻译:自我监督的学习方法成为图表代表性学习的流行方法,因为它们不依赖手动标签,而是提供更好的概括性。基于相互信息的最大化同一对象的放大情况之间的对比方法被广泛用于自我监督的演示学习。但是,对于图表结构化数据,成功使用这些方法有两个障碍:数据增强战略和培训解码器,用于在节点、子图或图表的扩大表示法之间进行相互信息估计;在这项工作中,我们建议一种自监督的图形代表学习算法,图表信息代表学习法(GIRL)。GIL不需要增强或解码器来进行相互信息估计。算法基于替代信息衡量标准,\textit{可恢复性},它与相互信息密切相关,但在估算时则不那么复杂。我们自我监督的算法始终超越了现有基于对比的状态的自我监督方法,在各种数据集上有很大的幅度。此外,我们展示了如何在有监督的图像/可复制性网络中使用的可恢复性,在更深层次的图像/可复制性中,Annovis recommus to remais the degrational speal speal suration suplipsypsypsypsy.

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium8
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
Arxiv
13+阅读 · 2019年11月14日
VIP会员
相关资讯
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium8
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员