【KDD2020】 深度图神经网络专题论文解读

2020 年 9 月 20 日 专知
论文解读者:北邮 GAMMA Lab 硕士生  朱美琪

1 引言

图神经网络在处理基于图数据问题方面取得了巨大的成功,受到了广泛的关注和应用。 GNNs通常是基于消息传递的方式设计的,本质思想即迭代地聚合邻居信息,而经过 次的迭代后, 层GNNs能够捕获节点的 局部结构,学习来自 跳邻居的信息。 因此更深层的GNN就能够访问更多的邻居信息,学习与建模远距离的节点关系,从而获得更好的表达能力与性能。 而在实际在做深层GNN操作时,往往会面临着两类问题: 1. 随着层数的增加,GNNs的性能会大幅下降; 2. 随着层数的增加,利用GNNs进行训练与推断时需要的计算量会指数上升。 对于第一个问题来说,现有的很多工作分析出深层GNNs性能下降的原因是受到了过平滑问题的影响,并提出了缓解过平滑的解决方案; 而对于第二个问题来说,设计方案模拟深层GNNs的表现能力并减少GNNs的计算消耗也成了亟待解决的需求,比如用于实时系统的推断。 针对这两个问题,本文将分别介绍两个在KDD 2020上的关于深度GNNs的最新工作。
第一个工作是Research Track的《Towards Deeper Graph Neural Networks》。 该工作从另一个角度去解读深度图神经网络随着层数增加性能下降的问题,认为影响性能下降的主要原因是Transformation和Propagation两个过程的纠缠影响作用,并且基于分析结果设计了深度自适应图神经网络(Deep Adaptive Graph Neural Networks) 模型,能够有效地缓解深层模型的性能快速下降问题。

第二个工作是Research Track的《TinyGNN: Learning Efficient Graph Neural Networks》。 该工作尝试训练small GNN(浅层)去模拟Deep GNN(深层)的表达能力和表现效果,致力于应用在实时系统推断等对推断速度有较高要求的场景。

2 Towards Deeper Graph Neural Networks

2.1 引言
1层的GCN只考虑了1跳邻居的信息,而当使用多层的图卷积操作扩大GCN的接受域之后,性能也会大幅下降。 已有的一些工作[1,2]将这个性能大幅下降的原因归根于图神经网络的过平滑问题(over-smoothing)。 然而这篇文章保持一个不同的观点,并且从另一个角度去解读深度图神经网络性能下降的问题。 这篇文章认为影响其性能快速下降的主要因素是表示变换( Transformation )和传播( propagation )的纠缠作用,过平滑问题只有在使用了非常大的接受域,也就是叠加非常多层的时候才会影响图神经网络的表现效果。 在进行了理论和实验分析的基础上,该文章提出了深度自适应图形神经网络的设计方案。 代码链接: https://github.com/mengliu1998/DeeperGNN

2.2 实验与理论分析
2.2.1 图卷积操作
通常图卷积操作遵循一种邻居聚合(或消息传递)的方式,通过传播其邻域的表示并在此之后进行变化以学习节点表示。 层的操作一般可以描述为:

2.2.2 平滑度的定量度量
平滑度是反映节点表示相似程度的度量标准。 通常两个节点的欧氏距离值越小,两个节点表示的相似性越高。 本文作者提出了一种计算整张图平滑度的指标

它与图 中节点表示的整体平滑度呈负相关,即 越小,图的平滑度越大。

2.2.3 深度GNN性能下降的原因
评价指标的基础上,作者对GCN在cora数据集上进行节点分类实验的准确率、可视化以及 指标数值的变化情况进行了统计,结果如下:

并给出质疑over-smoothing的两点原因: (1) 过平滑问题仅会发生在节点表示传播很多层之后,而实验中cora的分类结果在10层之内就大幅下降。 (2) 评价指标的值与初始相比只有轻微下降,证明平滑程度只有一定的上升,而不足以导致过平滑。
而作者进一步指出,是转换( Transformation )和传播( propagation )的纠缠作用严重损害了深度图神经网络的性能。 并且为了验证该假设,作者将两个过程分解出来,设计了如下的一个简单模型:

并同样给出在cora上的实验结果:

当两个过程分解后,50层内的GCN准确率基本能够在80%左右,当层数达到100+后才会陆续下降,对应 的值也在300层以后变得很低,说明此时网络受到过平滑的影响。 以上两个实验说明了在GNN受过平滑影响之前,转换( Transformation )和传播( propagation )的纠缠作用确实会损害深度图神经网络的性能,导致性能大幅下降。 也证实了解耦转换和传播可以帮助构建更深层次的模型,从而利用更大的可接受域来学习更多的信息。

2.2.4 理论证明
经过变换与传播的解耦,作者的理论分析可以更严格且温和地描述过平滑问题。 在本节中,作者严格描述两种典型传播机制的过度平滑问题,并推导出当层数 趋近于无穷时,两种 ( , 的收敛情况。 并证明该种传播模式是线性不可分的,利用它们作为传播机制将产生难以区分表征,从而导致over-smoothing问题。

2.3 模型

主要思想是将节点表示的变换与传播过程解耦,并同时进行 层传播,最后利用学得的融合权重向量 做一个自适应调整融合。

2.4 实验

实验数据集

节点分类实验结果

cora数据集上不同训练集比例的分类准确率
值得分析的有以下两点:
(1) 为什么低label rate的DAGNN表现要好? 这些比较可观的改进主要归功于DAGNN的优势: 通过消除表示转换和传播的纠缠,同时扩展接受域的范围,使得利用信息更丰富。
(2)和APPNP SGC的区别是什么?APPNP和SGC实际上都解耦了转换和传播,并且APPNP也扩展了k阶接受域。 DAGNN比APPNP好,是因为设计了自适应调整每个节点来自不同接收域的信息权重。

DAGNN在不同数据集上随层数变化的表现

3 TinyGNN: Learning Efficient Graph Neural Networks
3.1 引言
经过k次迭代后,k层GNN可以捕获来自k-hop节点结构信息。 通过这种方式,一个更深层的GNN就有获取更多邻居信息的能力,从而取得更好的性能。 举例来说,下图随着GAT层数的增加,两个数据集的分类准确率都有大幅提升。

而相对应的,当GNN进一步扩展层数时,邻域的指数扩增会导致GNNs模型需要大量的训练和推理计算消耗。 这使得许多应用程序(如实时系统)无法使用更深层的GNN作为解决方案。 举例来说,同样的两个数据,4层GAT的计算时间以指数级增长,导致计算消耗十分巨大。

因此这里就存在着一个困境,即采用深层的GNN就越容易取得高性能,但是从 效率的角度又往往倾向于开发一个小而推断迅速的GNN。 但是较小的GNN与较深的GNN之间存在较大的邻域信息差距,这也是需要考虑的。 因此这篇文章旨在训练一个较小的GNN,既能很好地刻画了局部结构信息,与较深的GNN相比可以获得相似性能,同时也能够进行快速的推断。 总结来说,贡献如下:
(1)提出了一种小型、高效的TinyGNN,能够在短时间内实现推断出高性能的节点表示。
(2)利用对等感知模块(PAM)和邻居蒸馏策略(NDS),以显式和隐式两种方式对局部结构建模,并解决小GNN和较深GNN之间的邻居信息差距。
(3)大量的实验结果表明,TinyGNN可以实现与更深层次的GNN相似甚至更好的性能,并且在实验数据集上,推理过程能够有7.73到126.59倍的提速。

3.2 模型
3.2.1 对等感知模块
对等节点(peer nodes)指的是同一层GNN从同一个点源点采样出的所有邻居集合,在下图(b)用相同的颜色表示。 对等节点之间没有通信,所有对等节点都能够通过上层节点在两跳内相连。 大量的对等节点是邻居,来自底层的邻居信息可以被对等节点直接配置。

PAM建模对等节点的方式如下,以两个节点隐层表示的相似度作为融合权重。 PAM能够帮助探索同一层中的节点之间的新关系,并帮助建模较小的GNN从而避免由较低层的邻居迭代聚集而导致的大量计算。   

PAM可以被用于任何图网络结构中,作为一个基础的模块,1层GNN+1层PAM的计算量要小于两层GNN。

3.2.2 邻居蒸馏策略
作者利用知识蒸馏设计了邻居信息蒸馏方案,teacher GNN是深层模型,能够建模更广泛的邻域。 而student GNN采用浅层模型,能够有更快的推断速度。 并且利用teacher GNN 教student GNN隐式地捕捉全局深层结构信息,使得student GNN有深层GNN的表现效果。

teacher GNN的损失函数:

student GNN的损失函数,同时利用来自teacher网络的软标签和真实标签进行学习,T表示蒸馏温度。

3.3 实验

实验数据集

节点分类实验结果

速度提升情况

4 参考文献
[1] Qimai Li, Zhichao Han, and Xiao-Ming Wu. Deeper insights into graph convolutional networks for semi-supervised learning. AAAI 2018.
[2] Keyulu Xu, Chengtao Li, Yonglong Tian, Tomohiro Sonobe, Ken-ichi Kawarabayashi, and Stefanie Jegelka. Representation Learning on Graphs with Jumping Knowledge Networks. ICML 2018.

本期责任编辑:杨成
本期编辑:刘佳玮

北邮 GAMMA Lab 公众号
主编:石川
责任编辑:王啸、杨成
编辑:刘佳玮
副编辑:郝燕如,纪厚业


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“GNN2” 可以获取《【KDD2020】 深度图神经网络专题论文解读》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

专知会员服务
37+阅读 · 2020年11月24日
专知会员服务
52+阅读 · 2020年11月3日
[NeurIPS 2020]对图神经网络更实际的对抗式攻击
专知会员服务
8+阅读 · 2020年11月1日
最新《图神经网络模型与应用》综述论文
专知会员服务
293+阅读 · 2020年8月2日
近期必读的5篇AI顶会CVPR 2020 GNN (图神经网络) 相关论文
专知会员服务
78+阅读 · 2020年3月3日
近期必读的6篇AI顶会WWW2020【推荐系统】相关论文
专知会员服务
56+阅读 · 2020年2月25日
近期必读的12篇KDD 2019【图神经网络(GNN)】相关论文
专知会员服务
62+阅读 · 2020年1月10日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
KDD2020推荐系统论文聚焦
机器学习与推荐算法
15+阅读 · 2020年6月28日
当深度强化学习遇见图神经网络
专知
224+阅读 · 2019年10月21日
KDD 18 & AAAI 19 | 异构信息网络表示学习论文解读
PaperWeekly
21+阅读 · 2019年2月25日
论文浅尝 | 图神经网络综述:方法及应用
开放知识图谱
113+阅读 · 2019年2月14日
清华大学图神经网络综述:模型与应用
机器之心
74+阅读 · 2018年12月26日
图神经网络综述:模型与应用
PaperWeekly
197+阅读 · 2018年12月26日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
6+阅读 · 2019年9月25日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
23+阅读 · 2018年10月1日
VIP会员
相关VIP内容
专知会员服务
37+阅读 · 2020年11月24日
专知会员服务
52+阅读 · 2020年11月3日
[NeurIPS 2020]对图神经网络更实际的对抗式攻击
专知会员服务
8+阅读 · 2020年11月1日
最新《图神经网络模型与应用》综述论文
专知会员服务
293+阅读 · 2020年8月2日
近期必读的5篇AI顶会CVPR 2020 GNN (图神经网络) 相关论文
专知会员服务
78+阅读 · 2020年3月3日
近期必读的6篇AI顶会WWW2020【推荐系统】相关论文
专知会员服务
56+阅读 · 2020年2月25日
近期必读的12篇KDD 2019【图神经网络(GNN)】相关论文
专知会员服务
62+阅读 · 2020年1月10日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
相关资讯
KDD2020推荐系统论文聚焦
机器学习与推荐算法
15+阅读 · 2020年6月28日
当深度强化学习遇见图神经网络
专知
224+阅读 · 2019年10月21日
KDD 18 & AAAI 19 | 异构信息网络表示学习论文解读
PaperWeekly
21+阅读 · 2019年2月25日
论文浅尝 | 图神经网络综述:方法及应用
开放知识图谱
113+阅读 · 2019年2月14日
清华大学图神经网络综述:模型与应用
机器之心
74+阅读 · 2018年12月26日
图神经网络综述:模型与应用
PaperWeekly
197+阅读 · 2018年12月26日
相关论文
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
6+阅读 · 2019年9月25日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
23+阅读 · 2018年10月1日
Top
微信扫码咨询专知VIP会员