网络节点表示学习论文笔记02—CIKM2015GraRep: 基于全局结构信息的图结点表示学习

2018 年 2 月 11 日 专知 专知内容组(编)

【导读】这次论文笔记介绍了介绍一种具有代表性的网络节点表示学习(NRL)方法:GraRep以LINE为代表的一系列NRL算法一些网络上具有很好地学习效果,但它们并不能很好地捕捉到远距离节点之间的关系。该算法一方面可以很好地捕捉到远距离节点之间的关系,另一方面与DeepWalk、Line等经典的基于Skip-Gram和Negative Sampling的方法不同,GraRep使用矩阵分解来学习节点表示。这篇工作被CIKM2015接受。

【论文】:GraRep: Learning Graph Representations with Global Structural Information


论文链接:

https://www.researchgate.net/profile/Qiongkai_Xu/publication/301417811_GraRep/links/5847ecdb08ae8e63e633b5f2/GraRep.pdf

代码链接:

https://github.com/ShelsonCao/GraRep


网络节点表示学习(NetworkRepresentation Learning(NRL)、Network Embedding)是近几年比较火的研究方向。很多人可能对网络节点表示学习比较陌生,但大部分人一定知道Word2Vec,其实Word2Vec可以被看成是网络节点表示学习的一种应用。网络节点表示学习具有很强的泛化能力,可以对社交网络、论文引用网络、词网络等进行建模,且具有不错的效果。网络节点表示学习又被称作Network Embedding。


首先介绍一下NRL的作用,下图分别给出了NetworkEmbedding的输入和输出。NRL的输入是一个网络,例如社交网络、论文引用网络,网络中的核心信息是节点之间的关系。例如对于论文引用网络,网络节点表示论文,边表示论文之间的引用关系。输入这样一个网络,NLR会为网路中的每个节点学习一个低维向量表示(图例中是2维向量),使得相似的节点(例如相同类别的论文)之间距离较近,不相似的节点(例如不同类别的论文)之间的距离较远。从图例中的输出可以看出,在NRL学习到的空间中,不同类别的节点分布在空间的不同区域,这样的节点表示非常适合分类、聚类等机器学习任务。

 

本次论文笔记介绍一种具有代表性的NRL方法:GraRep。该算法的贡献点有如下几条:

  1. 可以很好地捕捉到远距离节点之间的关系。

  2. 与DeepWalk、Line等经典的基于Skip-Gram和Negative Sampling的方法不同,GraRep使用矩阵分解来学习节点表示

 

以LINE为代表的一系列NRL算法一些网络上具有很好地学习效果,但它们并不能很好地捕捉到远距离节点之间的关系。如果两个节点v0和v1相邻,我们说v0和v1之间的step为1。如果v0和v1不直接相邻,而是通过v2相邻,即存在路径v0->v2->v1,v0和v1之间的step为2。LINE通过其设计的一阶和二阶相似性可以很好地捕捉step=1和step=2的情况,然而对于step > 2的情况,LINE等算法就显得有些无力了。例如下图中,节点A1和A2具有明显的相关性,然而A1和A2之间需要经过至少3个节点才能关联。

GraRep利用邻接矩阵的一个特性来捕捉step > 2时节点之间的关系。用S表示邻接矩阵,Sij为1时表示有一条从节点i指向节点j的边,Sij为0时表示节点i和节点j之间没有边。D是网路节点的出度矩阵,如下图所示,D是一个对角矩阵,对角线上的第i个元素表示第i个节点的出度。

利用S和D可以得到矩阵A(如下图所示),A是转移概率矩阵,Aij表示从节点i跳转到节点j的概率,注意A是step=1的转移概率矩阵。

有step=1的转移概率矩阵A,就可以很轻松地求出step=k时的转移概率矩阵:

从节点w经过k-step到节点c的概率可以表示为pk(c|w):

pk(c|w)是根据邻接矩阵计算出的经验概率,GraRep通过节点w和节点c的低维表示来预测节点转移概率(如下图所示),其中σ表示sigmoid函数。注意,我们将w称作当前节点,将c称作上下文节点,节点在被当做当前节点或上下文节点时具有不同的向量表示,即每个节点有两个向量表示。这里w使用的是当前节点向量表示,c使用的是上下文节点向量表示。

GraRep希望预测的概率能够尽量拟合经验概率,借助Noise Contrastive Estimation (NCE)损失,GraRep的损失函数如下所示:

经过一连串数学推导得出,为了最小化损失函数,每个节点对w和c需要满足:

上述约束可以用一个矩阵Y统一表示:

从上面公式可以明显看出,网络节点表示的求解,可以被看成一个矩阵分解问题。使用SVD来求解这个问题,最终得到节点的两种向量表示如下图所示,一般我们使用W(当前节点向量表示)来作为学习到的网络节点表示。

下图是一些NRL算法的可视化结果,可以看出GraRep的效果还是很不错的:


参考链接:https://www.researchgate.net/profile/Qiongkai_Xu/publication/301417811_GraRep/links/5847ecdb08ae8e63e633b5f2/GraRep.pdf

-END-

专 · 知

人工智能领域主题知识资料查看获取【专知荟萃】人工智能领域26个主题知识资料全集(入门/进阶/论文/综述/视频/专家等)

同时欢迎各位用户进行专知投稿,详情请点击

诚邀】专知诚挚邀请各位专业者加入AI创作者计划了解使用专知!

请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料

请扫一扫如下二维码关注我们的公众号,获取人工智能的专业知识!

请加专知小助手微信(Rancho_Fang),加入专知主题人工智能群交流!

点击“阅读原文”,使用专知

登录查看更多
9

相关内容

基于网络的表示学习研究旨在探索能够更好地研究分析复杂信息网络中的节点间的联系, 寻找解决信息网络背景下的各种实际问题的普适方法, 有效融合网络结构与节点外部信息, 形成更具区分性的网络表示. 近年来, 网络表示学习问题吸引了大量的研究者的目光, 相关的论文工作也层出不穷。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【斯坦福大学-论文】实体上下文关系路径的知识图谱补全
近期必读的5篇 WSDM 2020【图神经网络(GNN)】相关论文
专知会员服务
56+阅读 · 2020年1月10日
必读的7篇IJCAI 2019【图神经网络(GNN)】相关论文-Part2
专知会员服务
60+阅读 · 2020年1月10日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
六篇 CIKM 2019 必读的【图神经网络(GNN)】长文论文
专知会员服务
37+阅读 · 2019年11月3日
论文浅尝 | ICLR2020 - 基于组合的多关系图卷积网络
开放知识图谱
21+阅读 · 2020年4月24日
网络表示学习介绍
人工智能前沿讲习班
18+阅读 · 2018年11月26日
Representation Learning on Network 网络表示学习
全球人工智能
10+阅读 · 2017年10月19日
Representation Learning on Network 网络表示学习笔记
全球人工智能
5+阅读 · 2017年9月30日
Tutorial on NLP-Inspired Network Embedding
Arxiv
7+阅读 · 2019年10月16日
Deep Graph Infomax
Arxiv
17+阅读 · 2018年12月21日
Arxiv
9+阅读 · 2018年10月18日
Arxiv
5+阅读 · 2018年5月21日
Arxiv
4+阅读 · 2018年2月19日
Arxiv
8+阅读 · 2014年6月27日
VIP会员
相关资讯
相关论文
Tutorial on NLP-Inspired Network Embedding
Arxiv
7+阅读 · 2019年10月16日
Deep Graph Infomax
Arxiv
17+阅读 · 2018年12月21日
Arxiv
9+阅读 · 2018年10月18日
Arxiv
5+阅读 · 2018年5月21日
Arxiv
4+阅读 · 2018年2月19日
Arxiv
8+阅读 · 2014年6月27日
Top
微信扫码咨询专知VIP会员