「深度图结构学习鲁棒表示」简明综述论文

2021 年 3 月 7 日 专知

来自中科院自动化所Yanqiao Zhu等关于《图结构学习》综述论文,值得关注


摘要


图神经网络(GNNs)广泛应用于分析图结构数据。大多数GNN方法对图结构的质量非常敏感,通常需要一个完美的图结构来学习信息嵌入。


然而,图中噪声的普遍性需要学习鲁棒表示以解决真实世界问题。为了提高GNN模型的鲁棒性,许多研究围绕图结构学习(Graph Structure Learning, GSL)这一中心概念提出,旨在共同学习优化的图结构及其表示。


为此,在本研究中,我们广泛回顾了学习鲁棒表示的GSL方法的最新进展。具体来说,我们首先制定一个通用的GSL范式,然后回顾最先进的方法,根据它们如何建模图结构进行分类,然后是在其他图任务中包含GSL思想的应用。最后,我们指出了目前研究中存在的一些问题,并对未来的研究方向进行了讨论。


https://www.zhuanzhi.ai/paper/2b1664e52b307d1922cad6a67df1cb01


引言

图在表示对象及其复杂的交互时是普遍存在的。作为一种分析图形结构数据的强大工具,图神经网络(GNNs)已被广泛应用于各种领域的图分析任务,包括节点分类[Kipf and Welling, 2017], 链接预测 [Kipf and Welling, 2016; Zhang and Chen, 2018], 推荐 [Wu et al., 2019; Yu et al., 2020b; He et al., 2020], 信息检索 [Zhang et al., 2021; Yu et al., 2021],等。


众所周知,深度神经网络容易受到噪声的干扰[Szegedy et al., 2014]; 噪声甚至加剧了深度GNN模型所产生的表示质量,这对将GNN应用于现实世界的问题,特别是在一些风险高危的场景中,例如医学分析,提出了巨大的挑战。由于GNN通过递归聚合邻区信息来计算节点嵌入,这种迭代机制具有级联效应——图中的小噪声将传播到邻区节点,影响许多其他节点的嵌入。以社交网络为例,节点对应用户,边表示朋友关系。欺诈账户与真实账户建立虚假链接,很容易向整个网络注入错误信息,导致难以估算账户的可信性。此外,最近的研究表明,不被注意到的、故意的干扰(又称“干扰”)。在图结构中,容易导致错误的预测[Dai et al., 2018;Zhu et al., 2019;Zhang and Zitnik, 2020。因此,GNN对给定数据的质量高度敏感,通常需要一个完美的图结构来学习信息表示[Luo et al., 2021]。



提高GNN模型的鲁棒性的一个主要关注点是为学习表示产生去噪的图结构[Jin等人,2020]。最近,大量的文献围绕着图结构学习(Graph Structure Learning, GSL)这一中心主题兴起,其目标是共同学习优化的图结构和相应的表示[Yu et ., 2020a]。不幸的是,许多GSL技术在不同的研究团体中被提出,它们从未被系统地调研过。为了在不同的研究之间建立联系并便于理解,在本文中,我们对用于鲁棒表示的深度GSL的最新工作进行了综述。具体来说,我们制定了一个通用的GSL范式,根据他们对图结构建模的方式对现有的工作进行分类,并突出每个模型的关键优点。此外,由于GSL在其他方面使GNN受益,我们将讨论在其他领域(如可解释性和图池化)合并GSL思想的应用。据我们所知,这是第一个全面回顾GSL研究最新进展的研究。


本综述的其余部分的结构如下。在第2节中,我们将介绍有关图结构学习的初步知识,并提出描述不同研究的一般范式。接下来,在第3节中,我们将现有的工作分为三个类别,并仔细检查每个类别中的代表性工作。第4节将进一步讨论在其他领域中包含GSL思想的应用程序。最后,我们在第5节中指出了现有工作中存在的一些挑战和一些潜在的研究方向,并在第6节对全文进行了总结。


结构学习的一般范式


大多数现有的深度GSL工作都可以看作是在学习图形表示的现成GNN模型之上的插件模块。我们用一个通用范式来描述以前的研究,该范式包含三个组成部分: 结构建模、消息传播和学习目标。


结构建模。GSL的核心是一个编码函数,它对最优图结构A*用边权值表示。编码函数可以通过两两距离或可学习参数来定义边缘权值。在本研究中,我们将现有的研究分为以下三组:  


  • 度量学习方法,其中边权值来自于对表示之间的度量函数的学习

  • 概率建模方法,假定图形是通过从某些分布的采样过程生成的,并使用可学习的参数对采样边缘的概率建模。

  • 直接优化方法,在原始邻接矩阵的基础上,结合各种图的先验,对图结构进行细化。



消息传播。得到优化后的图结构A*,节点特征将传播到改进的领域。使用GNN模型,每个节点聚合来自邻近节点的信息,并产生一个嵌入Z*= f(A*,X),值得指出的是,由于对图结构进行优化的难度较大,很多方法采用迭代的方式进行结构建模和消息传播,直到满足几个停止条件。


学习目标。为了训练模型与改进的图结构,现有的工作通常定义了一个学习目标包含两个部分: L = L_task(Z *,Y)+ λL_reg(A*,A),第一项Ltask是针对ground truth Y的任务特定目标,如用于节点分类的交叉熵和用于链路预测的贝叶斯个性化排名损失。第二项Lreg对学习到的图结构进行正则化,以满足一些先验拓扑约束,如稀疏性和低秩性。λ∈R是一个平衡这两项的超参数。


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“DGSL” 就可以获取首篇「深度图结构学习鲁棒表示」简明综述论文》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
1

相关内容

「图像视频深度异常检测」简明综述论文
专知会员服务
37+阅读 · 2021年3月8日
最新《生成式对抗网络GAN逆转》综述论文,22页pdf
专知会员服务
39+阅读 · 2021年1月19日
专知会员服务
64+阅读 · 2020年9月10日
最新《图神经网络模型与应用》综述论文
专知会员服务
293+阅读 · 2020年8月2日
专知会员服务
98+阅读 · 2020年7月20日
专知会员服务
183+阅读 · 2020年6月21日
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
298+阅读 · 2020年6月16日
深度多模态表示学习综述论文,22页pdf
专知
30+阅读 · 2020年6月21日
图数据表示学习综述论文
专知
52+阅读 · 2019年6月10日
图神经网络(GNN)必读论文及最新进展跟踪
深度学习与NLP
27+阅读 · 2019年6月7日
图神经网络综述:模型与应用
PaperWeekly
197+阅读 · 2018年12月26日
深度 | 一文概览图卷积网络基本结构和最新进展
机器之心
17+阅读 · 2017年11月30日
Arxiv
0+阅读 · 2021年5月2日
Arxiv
35+阅读 · 2021年1月27日
Arxiv
5+阅读 · 2020年12月10日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
7+阅读 · 2018年1月18日
VIP会员
相关VIP内容
「图像视频深度异常检测」简明综述论文
专知会员服务
37+阅读 · 2021年3月8日
最新《生成式对抗网络GAN逆转》综述论文,22页pdf
专知会员服务
39+阅读 · 2021年1月19日
专知会员服务
64+阅读 · 2020年9月10日
最新《图神经网络模型与应用》综述论文
专知会员服务
293+阅读 · 2020年8月2日
专知会员服务
98+阅读 · 2020年7月20日
专知会员服务
183+阅读 · 2020年6月21日
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
298+阅读 · 2020年6月16日
相关资讯
相关论文
Top
微信扫码咨询专知VIP会员