With the rise of contrastive learning, unsupervised graph representation learning has been booming recently, even surpassing the supervised counterparts in some machine learning tasks. Most of existing contrastive models for graph representation learning either focus on maximizing mutual information between local and global embeddings, or primarily depend on contrasting embeddings at node level. However, they are still not exquisite enough to comprehensively explore the local and global views of network topology. Although the former considers local-global relationship, its coarse global information leads to grudging cooperation between local and global views. The latter pays attention to node-level feature alignment, so that the role of global view appears inconspicuous. To avoid falling into these two extreme cases, we propose a novel unsupervised graph representation model by contrasting cluster assignments, called as GRCCA. It is motivated to make good use of local and global information synthetically through combining clustering algorithms and contrastive learning. This not only facilitates the contrastive effect, but also provides the more high-quality graph information. Meanwhile, GRCCA further excavates cluster-level information, which make it get insight to the elusive association between nodes beyond graph topology. Specifically, we first generate two augmented graphs with distinct graph augmentation strategies, then employ clustering algorithms to obtain their cluster assignments and prototypes respectively. The proposed GRCCA further compels the identical nodes from different augmented graphs to recognize their cluster assignments mutually by minimizing a cross entropy loss. To demonstrate its effectiveness, we compare with the state-of-the-art models in three different downstream tasks. The experimental results show that GRCCA has strong competitiveness in most tasks.


翻译:随着对比式学习的兴起,未经监督的图表代表性学习最近一直在蓬勃发展,甚至超过了某些机器学习任务中受监督的对应方,甚至超越了某些机器学习任务中受监督的对应方。现有的图表代表性学习的对比式模型大多侧重于最大限度地增加地方和全球嵌入之间的相互信息,或者主要依赖于在节点层面的对比嵌入。然而,它们仍然不够精细,不足以全面探讨网络地形学的当地和全球观点。虽然前者认为地方与全球的关系,但其粗糙的全球信息导致地方与全球观点之间的合作不力。后者关注节点特征对齐,因此全球观点的作用显得不透明。为了避免陷入这两个极端案例,我们提议采用新的不受监督的图表代表性模型,将集群任务称为全球组合任务加以对比。尽管前者认为地方和全球观点是地方与全球观点的结合,但前者不仅有助于形成对比性效应,而且提供了更高质量的图表模型信息。同时,GROCA进一步展示了最强的分类层次信息,因此,其全球观点的对比性比较作用并不明显。我们提出了一个新的分类式的分类,而后,我们又以不同的分类式组群点化地显示了它们之间的对比式组合任务又显示了不同的分类。

0
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Graph: 表现再差,也不进行Pre-Training? Self-Supervised Learning真香!
机器学习与推荐算法
3+阅读 · 2020年6月30日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Arxiv
12+阅读 · 2021年10月22日
VIP会员
相关资讯
Graph: 表现再差,也不进行Pre-Training? Self-Supervised Learning真香!
机器学习与推荐算法
3+阅读 · 2020年6月30日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员