【Embedding】SDNE:深度学习在图嵌入领域的应用

2020 年 5 月 13 日 AINLP

今天学的论文是清华大学崔鹏老师工作《Structural Deep Network Embedding》(后简称 SDNE),并发表于 2016 KDD,目前为止共有 880 多引用,是一个非常经典的将深度学习应用于 NetWork Embedding 的算法。

SDNE 设计了一个由多层非线形函数组成的深度模型来捕捉高度非线性的网络结构,同时联合优化 first-order 和 second-order 学习网络结构,前者用作监督信息以捕捉网络局部结构,后者用作非监督信息以捕捉网络全局结构,所以 SDNE 是一个半监督的深度学习模型。

我相信大家看完这段会有很多疑问,至少我看完有以下疑问:

  • 多层非线性函数长什么样子?具有非线性激活函数的多层神经网络?
  • 如何把 first-order 用作监督信息?
  • 同理,second-order 如何用做非监督学习?
  • 如何联合优化?
  • 深度模型的 Embedding 怎么出来?还是原来的那个输入矩阵吗?
  • 引入深度模型是为了拟合高度非线形的网络,那速度怎么样?可以用于大规模网络吗?

带着问题,我们来一起读一下论文。

1. Introduction

在真实网络世界中学习 NetWork Embedding,有三大挑战:

  • 高度非线性:网络的底层结构是高度非线性的,使用浅层网络无法捕捉高度非线性的网络结构;
  • 结构捕捉:既要捕捉网络的局部结构,又要捕捉网络的全局结构;
  • 稀疏性:大部分真实网络都是稀疏的,仅利用节点的有限连接是不够的。

为了解决这三大问题,作者也提出了三大解决方案:

  • 高度非线性:设计了一个由多层非线性函数组成的深度网络来学习 NetWork Embedding,深度网络有强大的表示能力来学习网络的复杂结构;而多层非线性函数可以将数据映射到一个高度非线性的潜在空间,可以更好的捕捉到高度非线性的网络结构;
  • 结构捕捉:将 first-order 和 second-order 联合应用到网络的学习过程中,前者用于捕捉网络局部结构,后者用于捕捉网络全局结构;
  • 稀疏性:first-order 是基于节点间的边连接,即原始网络结构;而 second-order 是基于两个节点共享的邻域连接来捕捉节点的相似性,且具有 second-order 相似性的节点数量更多,如下图所示,所以加入 second-order 一定程度上缓解了网络稀疏的问题。
fisrt order and second order

2. SDNE

我们来看下 SDNE 具体是怎么实现的。

2.1 Autoencoder

在介绍 SDNE 的整体框架前,我们先补充学习一个基础知识——自编码器

自编码器(AutoEncoder) 是只有一层隐层节点,输入和输出具有相同节点数的神经网络,其目的是求函数: 。简单放一张图:

AutoEncoder

可以看到,不考虑输入层偏置项的话,输入节点和输出节点是一致的。那么我们为什么要这么做呢?

举一个例子:我们传输大文件时有两种方式——直接传和压缩后再传。我们通常会选择后者,因为压缩后不但文件的体积会变小,还足以通过解压还原出原来的文件。

而自动编码器也类似于这种过程,为了尽可能复现输入数据,自编码器必须捕捉输入数据的重要特征,从而找到能够代表原数据的主要成分,这个过程有点类似主成分分析(Principal Components Analysis,PCA)。

自编码器没有标签数据,所以是一种非监督学习,前半部分为编码器,后半部分为解码器。在实际应用中通常会使用自编码器的前半部分。

SDNE 采用的自编码器比较深,有多个隐藏层,如下图所示:

deep encoder

自编码器的隐藏层可以表示为:

其中, 为输入值, 为第 k 层的 i 个节点的输出值, 为第 k 层的参数矩阵, 为第 k 层的偏置项。

得到  后,我们通过反转编码器的计算过程得到输出值  ,自编码器的目标是最小化输入和输出的重构误差,所以代价函数为:

2.2 FrameWork

然后我们来看下 SDNE 的整体框架:

Framework of SDNE

以左边的为例:输入为邻接矩阵,输出为重构后的邻接矩阵,通过优化重构误差来捕捉全局结构特征;而中间一排, 就是我们需要的 Embedding 向量,模型通过拉普拉斯特征特征映射(Laplacian Eigenmaps)优化的代价函数使得相邻节点的 Embedding 向量距离更近,从而捕捉节点的局部特征。

PS:个人猜测:这里框架图虽然画了两个自编码器,SDNE 应该是只有一个自编码器。如果是两个的话,共享参数这个操作过于复杂,而记录邻居节点的 Embedding 向量就比较容易了。

2.3 Object Functions

再来看一下半监督模型的目标函数,目标函数由代价函数和正则项构成,SDNE 的代价函数分为两块,一块是 first-order ,另一块是 second-order 。

我们先来看一下如何在代价函数中加入 second-order 来捕捉全局网络结构。

second-order 是基于节点的邻域建模的,所以我们定义邻接矩阵:

其中, 为节点 和节点  之间的边,这里考虑加权边; 描述了节点  的的邻域结构。

我们将  作为自编码器的输入,即  ,由于  反映了节点  的邻域结构,所以通过自编码器的重构可以使得具有类似特征的节点获得相似的 Embedding 向量。

然而,由于网络的稀疏性, 将有大量的非零元素,所以如果直接使用 S 作为自编码器的输入则可能会重构出 S 的零元素。所以为了解决这问题,我们加大了非零元素的惩罚权重,修正后的代价函数为:

其中, 表示哈达玛积(Hadamard product),类似于向量的内积; ,当  时, ,否则 

Hadamard product:设    ,则 

通过修正后的自编码器,以邻接矩阵 S 为输入,以最小化重构误差为约束,可以将具有相似邻域结构节点的 Embedding 向量映射到相邻位置,即通过 Second-order 捕捉了网络的全局结构。

同样的,既要捕捉网络的全局结构,也要保证网络的局部结构。

我们以 first-order 表示网络的局部结构,使得有连接边的节点 Embedding 向量相近,所以代价函数为:

为了保证 first-order 和 second-order 相似性,我们将代价函数联合起来,加上正则项后便得到目标函数:

其中, 为超参, 为正则项:

2.4 Optimization

SDNE 使用反向传播来更新网络参数,但由于模型高度非线性,参数空间中可能存在许多局部最优。因此,为了得到全局最优,作者使用深度信念网络(Deep Belief Network,以下简称 DBN)对参数进行预训练。

简单介绍一下 DBN,DBN 是由 HInton 大佬在 2006 年提出的一个概率生成模型,其由多个 RBM 组成。所以在介绍 DBN 之前我们先来介绍下受限玻尔兹曼机(Restricted Boltzmann Machines,以下简称 RBM),下图 RBM 的结构图:

Restricted Boltzmann Machines

其中, 层显层的状态向量, 层为隐藏层的状态向量,两层之间的权重为  ,每个神经元都有自己的一个偏置项,对隐层而言偏置项为  ,对显层而言偏置项为 

在 RBM 中,隐层被激活的概率为:

由于是双向连接,所以显层也同样可以被激活:

以上就是 RBM 的基本构造过程,并不复杂, 我们来看下工作原理:

当一条数据输入到显层时,RBM 会根据公式计算出每个隐层被开启的概率,并通过阈值来判定是否被激活:

由此便可以得到隐层的每个神经元是否被激活,给定隐层时,显层的计算方式一致。

了解了工作原理后,我们来看下 RBM 的训练方式:

  1. 给定的一条数据赋值给显层  ,并计算出隐层每个神经元被激活的概率 
  2. 对计算的概率分布进行 Gibbs 采样计算隐层的输出值:
  3. 利用隐层的状态向量重构显层,即通过  层推导出  ,可以计算出显层的每个神经元被激活的概率 
  4. 同样利用 Gibbs 采样计算显层重构值:
  5. 重构值和原本的输入值的误差比较大,所以需要利用反向传播去更新权重以缩小误差;
  6. 重复迭代,直到达到终止条件。

DBN 可以视为由多个 RBM 串联起来的结构,下图为最终训练得到的模型:

Structure of DBN

在训练时最下面为第一层结构,相邻两层构成一个 RBM,必须充分训练 RBM 后才能训练下一个 RBM,训练过程如下图所示:

train of DBN

DBM 是深度学习训练中非常有效的参数初始化方法。

我们现在回过头来简要的看下 SDNE 的算法:

SDNE Algorithm

2.5 Analysis

这一节主要分析一下新节点的 Embedding 和训练复杂度:

  • 新节点:如果新节点  与现有节点有连接,那么有连接向量: ,可以利用已有的模型去训练得到新节点的 Embedding 向量,时间复杂度为  ;如果没有连接,那目前的工作就没办法了~;
  • 时间复杂度:时间复杂度为  ,其中 n 为节点数量,d 为隐藏层最大维度数,c 为网络的平均度数,I 为迭代次数。

3. Experiments

我们来看一下 SDNE 在不同数据集下,采用不同评价指标(MAP、Precision)的性能表现:

SDNE 在多标签分类任务中的表现:

SDNE 在边预测任务中的表现:

SDNE 在不同稀疏程度的数据集中的表现:

SDNE 的可视化:

SDNE 的参数敏感性:

4. Conclusion

一句话总结:SDNE 是一个具有多层非线性函数的半监督深度学习模型,其利用 first-order 和 second-order 分别捕捉网络的局部结构和全局结构,使得训练出来的 Embedding 更具鲁棒性,并在多个真实数据集中获得良好的表现。

论文到此就结束了,回答一部分看完摘要时提出的疑问:

  • 深度模型的 Embedding 还是原来的那个输入矩阵吗?

    先讨论这个问题,Embedding 应该是 SDNE 中间  层的输出值,对于每一个节点其经过多层非线性网络后多会有不同的输出值。

  • first-order 如何用作监督信息?second-order 又如何用作非监督学习?如何联合优化?

    我是这样理解的:

    • second-order 其代价函数是输入的共现矩阵和重构的共现矩阵的误差,属于非监督学习;
    • 而 first-order 的代价函数是节点的 Embedding 向量与邻居节点的 Embedding 向量的误差,对于当前节点而言,其 Label 是邻居节点,所以属于监督学习;
    • 联合优化是指,把两个代价函数放在一起计算总体误差,区别于分开训练(还记得哪个模型是分开训练的吗?)。
  • 引入深度模型是为了拟合高度非线形的网络,那速度怎么样?可以用于大规模网络吗?

    论文没写,大概率速度会很慢,虽然论文时间复杂度为  ,每一轮迭代的时间复杂度与节点数量成线性关系,但我觉得有两个 Bug:

    但 Embedding 通常是离线操作,如果其训练时间可以接受,也不一定非要非常快的速度。

    • 论文中指出 d 为隐层最大维度数(d is  the maximum dimension of the hidden layer),但我觉得应该算成 sum 而不是 max,当然也要考虑是否采用 Negative Sampling、Dropout 等优化方式;
    • SDNE 需要 DBN 进行预训练,这个时间也应该加上去,虽然 DBN 的预训练会加速 SDNE 的收敛,DBN 本身训练过程就比较慢;

5. Reference

  1. 《Structural Deep Network Embedding》
  2. 《深度学习之autoencoder》
  3. Upadhyay, Rishabh. (2017). Accent Classification Using Deep Belief Network.
  4. 《深度学习读书笔记之RBM(限制波尔兹曼机)》

推荐阅读

AINLP年度阅读收藏清单

学自然语言处理,其实更应该学好英语

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

DistilBERT Understanding

太赞了!Springer面向公众开放电子书籍,附65本数学、编程、机器学习、深度学习、数据挖掘、数据科学等书籍链接及打包下载

数学之美中盛赞的 Michael Collins 教授,他的NLP课程要不要收藏?

自动作诗机&藏头诗生成器:五言、七言、绝句、律诗全了

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

这门斯坦福大学自然语言处理经典入门课,我放到B站了

征稿启示 | 稿费+GPU算力+星球嘉宾一个都不少

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。


登录查看更多
0

相关内容

自动编码器是一种人工神经网络,用于以无监督的方式学习有效的数据编码。自动编码器的目的是通过训练网络忽略信号“噪声”来学习一组数据的表示(编码),通常用于降维。与简化方面一起,学习了重构方面,在此,自动编码器尝试从简化编码中生成尽可能接近其原始输入的表示形式,从而得到其名称。基本模型存在几种变体,其目的是迫使学习的输入表示形式具有有用的属性。自动编码器可有效地解决许多应用问题,从面部识别到获取单词的语义。
【ACL2020】基于图神经网络的文本分类新方法
专知会员服务
68+阅读 · 2020年7月12日
【CVPR2020】L2 ^GCN:图卷积网络的分层学习高效训练
专知会员服务
37+阅读 · 2020年3月31日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
近期必读的5篇 WSDM 2020【图神经网络(GNN)】相关论文
专知会员服务
56+阅读 · 2020年1月10日
六篇 CIKM 2019 必读的【图神经网络(GNN)】长文论文
专知会员服务
37+阅读 · 2019年11月3日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
论文浅尝 | 图神经网络综述:方法及应用
开放知识图谱
113+阅读 · 2019年2月14日
如何将知识图谱特征学习应用到推荐系统?
人工智能头条
12+阅读 · 2018年6月10日
领域应用 | 如何将知识图谱特征学习应用到推荐系统?
深度学习在CTR预估中的应用 | CTR深度模型大盘点
PaperWeekly
15+阅读 · 2018年4月11日
图上的归纳表示学习
科技创新与创业
22+阅读 · 2017年11月9日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
Arxiv
34+阅读 · 2020年1月2日
Tutorial on NLP-Inspired Network Embedding
Arxiv
7+阅读 · 2019年10月16日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
4+阅读 · 2019年1月14日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
13+阅读 · 2018年12月6日
Arxiv
4+阅读 · 2018年5月21日
VIP会员
相关资讯
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
论文浅尝 | 图神经网络综述:方法及应用
开放知识图谱
113+阅读 · 2019年2月14日
如何将知识图谱特征学习应用到推荐系统?
人工智能头条
12+阅读 · 2018年6月10日
领域应用 | 如何将知识图谱特征学习应用到推荐系统?
深度学习在CTR预估中的应用 | CTR深度模型大盘点
PaperWeekly
15+阅读 · 2018年4月11日
图上的归纳表示学习
科技创新与创业
22+阅读 · 2017年11月9日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
相关论文
Arxiv
34+阅读 · 2020年1月2日
Tutorial on NLP-Inspired Network Embedding
Arxiv
7+阅读 · 2019年10月16日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
4+阅读 · 2019年1月14日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
13+阅读 · 2018年12月6日
Arxiv
4+阅读 · 2018年5月21日
Top
微信扫码咨询专知VIP会员