Networks have been widely used to represent the relations between objects such as academic networks and social networks, and learning embedding for networks has thus garnered plenty of research attention. Self-supervised network representation learning aims at extracting node embedding without external supervision. Recently, maximizing the mutual information between the local node embedding and the global summary (e.g. Deep Graph Infomax, or DGI for short) has shown promising results on many downstream tasks such as node classification. However, there are two major limitations of DGI. Firstly, DGI merely considers the extrinsic supervision signal (i.e., the mutual information between node embedding and global summary) while ignores the intrinsic signal (i.e., the mutual dependence between node embedding and node attributes). Secondly, nodes in a real-world network are usually connected by multiple edges with different relations, while DGI does not fully explore the various relations among nodes. To address the above-mentioned problems, we propose a novel framework, called High-order Deep Multiplex Infomax (HDMI), for learning node embedding on multiplex networks in a self-supervised way. To be more specific, we first design a joint supervision signal containing both extrinsic and intrinsic mutual information by high-order mutual information, and we propose a High-order Deep Infomax (HDI) to optimize the proposed supervision signal. Then we propose an attention based fusion module to combine node embedding from different layers of the multiplex network. Finally, we evaluate the proposed HDMI on various downstream tasks such as unsupervised clustering and supervised classification. The experimental results show that HDMI achieves state-of-the-art performance on these tasks.


翻译:网络被广泛用于代表学术网络和社交网络等对象之间的关系,学习嵌入网络也因此引起了大量的研究关注。自我监督的网络代表性学习旨在在没有外部监督的情况下提取节点嵌入。最近,本地节点嵌入和全球摘要(例如深图信息max,或简称为DGI)之间的相互信息最大化显示了许多下游任务(如节点分类)的可喜结果。然而,DGI有两大局限性。首先,DGI只是考虑外部监督信号(即节点嵌入和全球摘要之间的相互信息),而忽略了内在信号(即节点嵌入和节点属性之间的相互依存关系)。第二,现实世界网络中的节点通常通过多个边缘与不同关系连接,而DGI则不完全探索节点之间的各种关系。为了解决上述问题,我们提议了一个新框架,称为“高阶深多面信息分类”(HDMI),用于学习不同节点在多面码内嵌入的内嵌入服务器网络的内嵌入,然后在高端网络上提出一个包含双向的自动显示高端信息。DILA。我们提出一个基于高端信息的预的预的预的预头,在高端服务器上,我们提出一个拟议的高端服务器上,在高端服务器上提出一个预示的预示。

0
下载
关闭预览

相关内容

【KDD2021】图神经网络,NUS- Xavier Bresson教授
专知会员服务
63+阅读 · 2021年8月20日
【图与几何深度学习】Graph and geometric deep learning,49页ppt
【AAAI2021】 层次图胶囊网络
专知会员服务
83+阅读 · 2020年12月18日
MIT-深度学习Deep Learning State of the Art in 2020,87页ppt
专知会员服务
61+阅读 · 2020年2月17日
【课程推荐】 深度学习中的几何(Geometry of Deep Learning)
专知会员服务
57+阅读 · 2019年11月10日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Deep Learning & Neural Network 免费学习资源【译】
乐享数据DataScientists
5+阅读 · 2017年8月20日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
6+阅读 · 2019年9月25日
A Graph Auto-Encoder for Attributed Network Embedding
Deep Graph Infomax
Arxiv
17+阅读 · 2018年12月21日
Arxiv
3+阅读 · 2017年5月14日
VIP会员
相关资讯
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Deep Learning & Neural Network 免费学习资源【译】
乐享数据DataScientists
5+阅读 · 2017年8月20日
相关论文
Top
微信扫码咨询专知VIP会员