【宾夕法尼亚博士论文】大规模图机器学习,179页pdf

2022 年 11 月 20 日 专知

图神经网络(GNNs)成功地从大多数类型的网络数据学习表示,但在大型图的情况下受到限制。挑战出现在学习架构的设计本身,因为大多数GNN是由图的一些矩阵表示(例如,邻接矩阵)参数化的,当网络很大时,这可能很难获得。此外,在许多GNN架构中,图操作是通过谱域中的卷积操作来定义的。在这种情况下,另一个障碍是图谱的获得,这需要代价高昂的矩阵特征分解。

然而,从共享结构属性的意义上来说,大型图通常可以被识别为彼此相似。因此,我们可以预期,处理这些图上支持的数据应该会产生类似的结果,这将减轻大尺寸的挑战,因为我们可以为小图设计GNN,并将它们转移到更大的图上。在这篇论文中,我将这种直觉形式化,并表明当这些图属于同一个“族”时,这种图的可移植性是可能的,其中每个族由不同的图元标识。

graphon是一个函数W(x,y),它描述了一类具有相似形状的随机图。我们可以将参数(x,y)看作是一对节点的标签,以及图元值W(x,y)作为x和y之间一条边的概率的标签。这产生了一个从图元采样的图的概念,或者,等价地,一个随着采样图中节点数量增长的极限的概念。从一个graphon上采样的图形几乎肯定在极限上具有相同的属性,例如同态密度,这在实践中意味着,graphon识别的网络家族在某种意义上是相似的,某些“motifs”的密度是保持不变的。这激发了对图上的信息处理的研究,作为在大型图上进行信息处理的一种方法。

信号处理理论的核心部分是一个移位的概念,它引入了一类具有傅立叶变换(FT)特征的光谱表示的线性滤波器。本文表明,graphon诱导了一个线性算子,可用于定义移位,从而定义graphon滤波器和graphon FT。基于图序列和相关图信号的收敛性质,可以证明对于这些序列,图FT收敛到graphon FT,图滤波器的输出收敛到具有相同系数的graphon滤波器的输出。这些定理表明,对于属于某些族的图,图傅里叶分析和图滤波器设计具有明确的限制。反过来,这些事实使具有大量节点的图上的图信息处理成为可能,因为为极限图设计的信息处理管道可以应用于有限图。

我们通过组合具有点非线性的graphon滤波器组来进一步定义graphon神经网络(WNNs)。WNNs是理想的极限,在实际中并不存在,但它们是理解GNNs基本性质的有用工具。特别是,graphon滤波器的采样和收敛结果可以很容易地扩展到WNNs,从而表明当图收敛到graphon时,GNN收敛到WNNs。如果两个GNN可以任意接近同一个WNN,那么通过一个简单的三角形不等式参数,它们也可以任意接近彼此。这个结果证实了我们的直觉,即GNN可以在相似的图之间转移。一个GNN可以在中等规模的图上训练,并在一个可转移性误差主要为最小图的大小的倒数的大尺度图上执行。有趣的是,这种误差随着卷积滤波器光谱响应的可变性而增加,揭示了从图滤波器继承来的可转移性和光谱鉴别性之间的权衡。在实践中,由于非线性,这种权衡在GNN中很少出现,它能够将数据的光谱成分分散到特征值谱的不同部分,在那里它们可以被区分。这解释了为什么GNN比图过滤器更可转移。


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“G179” 就可以获取【宾夕法尼亚博士论文】大规模图机器学习,179页pdf》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料

登录查看更多
6

相关内容

【牛津大学博士论文】关系数据的学习和推理,243页pdf
专知会员服务
53+阅读 · 2022年11月16日
【斯坦福大学博士论文】鲁棒学习:信息论和算法,88页pdf
专知会员服务
42+阅读 · 2022年11月13日
【MIT博士论文】自监督学习语音处理,148页pdf
专知会员服务
51+阅读 · 2022年8月31日
最新《图机器学习》综述论文,19页pdf
专知会员服务
150+阅读 · 2021年5月5日
专知会员服务
63+阅读 · 2021年4月11日
专知会员服务
41+阅读 · 2021年4月2日
图表示学习Graph Embedding综述
AINLP
33+阅读 · 2020年5月17日
一文读懂图卷积GCN
计算机视觉life
21+阅读 · 2019年12月21日
【NeurIPS2019】图变换网络:Graph Transformer Network
图数据表示学习综述论文
专知
52+阅读 · 2019年6月10日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Hierarchical Graph Capsule Network
Arxiv
20+阅读 · 2020年12月16日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关VIP内容
相关资讯
图表示学习Graph Embedding综述
AINLP
33+阅读 · 2020年5月17日
一文读懂图卷积GCN
计算机视觉life
21+阅读 · 2019年12月21日
【NeurIPS2019】图变换网络:Graph Transformer Network
图数据表示学习综述论文
专知
52+阅读 · 2019年6月10日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员