WWW'22最佳论文:GNN的结构搜索系统

2022 年 5 月 2 日 图与推荐

北京大学团队获WWW 2022唯一最佳学生论文奖

4月29日晚,国际万维网顶会WWW-2022(The Web Conference,简称WWW)公布了本届会议的最佳论文。以北京大学计算机学院崔斌教授博士生张文涛为第一作者的论文“可扩展的图神经结构搜索系统 (PaSca: a Graph Neural Architecture Search System under the Scalable Paradigm)”斩获大会唯一的最佳学生论文奖(Best Student Paper Award)。

图1 获奖证书以及官方宣传

WWW(现改名为 TheWebConf)会议是计算机和互联网领域历史最为悠久同时最为权威的顶级学术会议之一,被中国计算机学会列为A类推荐国际学术会议。本次会议共收到1822篇论文投稿,最终录用 323 篇,录用率为 17.7%。本次会议仅评选出一篇最佳论文奖和一篇最佳学生论文奖,获奖论文首先被会议“系统和基础设施”方向推荐为最佳论文进入到大会最佳论文候选(共11篇),并在最终评比中获最佳学生论文奖。获奖论文是北京大学DAIR实验室与腾讯机器学习平台部Angel Graph团队共同完成,这是WWW成立30多年以来,中国学术研究机构第2次获得最佳学生论文奖。


论文链接:https://dl.acm.org/doi/10.1145/3485447.3511986

系统链接:https://github.com/PKU-DAIR/SGL


1. 内容简介


图神经网络模型在多个图任务上都取得了最佳效果,并受到了学术界和工业界的广泛关注。然而,现有的图神经网络系统有如下图所示的两个瓶颈。一方面,受限于单机场景下的存储和计算开销以及分布式场景下的通信开销,大多数基于消息传播机制(Neural Message Passing,NMP)的图神经网络模型可扩展性较低,很难直接用于现实生活中的大规模图数据。如图2所示,以典型的基于消息传播机制的GraphSAGE模型为例,分布式场景下的高昂通讯代价限制了图神经网络的可扩展性。此外,如图3所示,现有的图神经网络系统需要用户针对特定图数据和图任务编写代码和训练流程,然而设计网络结构也需要经验丰富的专家,建模成本很高。

图2 图神经网络的可扩展性瓶颈


图3 图神经网络的建模瓶颈


本论文研究了大规模图学习过程中面临的图模型可扩展性低以及建模门槛高两个问题,进而提出了一套能自动化建模超大规模图网络的可扩展图学习系统。具体来说,本文提出了一个新颖的图神经网络建模范式,并基于该范式设计了一个超过15万种网络结构的可扩展图网络设计空间,为图神经网络可扩展性的相关研究指明了一个新的方向和路线。此外,本文还实现并开源了一套多目标(如模型预测效果和资源占用)自动化图神经结构搜索系统,来支持更简单和更高效的大规模图学习。


2. 系统目标


区别于现有的大规模图神经网络系统,本文提出的PaSca是一个端到端的系统。如图4所示,系统的输入有两部分组成:1)图数据 2)搜索目标(预测性能、内存占用、训练以及预测效率等)。给定这两个输入,系统能自动化地在预定义的可扩展图网络搜索空间进行高效地搜索,并输出能兼容多个搜索目标的可扩展图神经网络模型。


图4 系统目标概览


2. 系统设计与方法


2.1 可扩展性图神经网络建模范式

      

图5 两种建模范式的对比                 

图6 聚合来自不同机器上的信息


如上图所示,现有的图神经网络模型大都遵循如上图所示的消息传递机制。此外,为了兼容主流的图神经网络模型,相应的图神经网络系统也使用基于消息传递机制的系统抽象。如图5所示,基于消息传播机制的图模型在每个batch训练过程中都需要进行聚合和更新操作。如图6所示,当图节点数据分布在不同机器上时,频繁的聚合操作会导致高昂的通信开销。区别于现有的消息传递机制,本文提出的Scalable Paradigm(SGAP)将消息聚合操作和更新操作分离,定义了可扩展性图神经网络建模的新范式:前处理—训练—后处理,消息聚合操作只存在于前处理和后处理中,极大地降低了分布式场景下的通信开销。


2.2 自动化搜索系统

本文提出的自动化搜索系统包含两个模板,分别是搜索引擎以及分布式验证引擎。如图7所示,在每一次迭代中,搜索引擎都会从搜索空间中推荐相应的可扩展图神经网络结构,之后评估引擎训练图网络模型并返回模型的验证结果。


图7 PaSca自动化搜索系统架构图


搜索引擎的主要目标是找到在SGAP建模范式下能同时兼容多个搜索目标的可扩展图神经网络结构。如表1所示,它首先定义了一个包含15万种不同网络结构的搜索空间,并基于贝叶斯优化来实现网络结构的推荐。在每次迭代中,推荐服务器会建模观测到的网络结构与优化目标值之间的关系,并推荐能最好地平衡多个优化目标的网络结构。最后,它基于验证引擎返回的观测结果来更新历史信息。


表1 基于SGAP的网络结构搜索空间


验证引擎的主要是用来高效评估被推荐的模型性能。对于前处理和后处理阶段,图数据聚合器会将图数据划分并存储到多台机器上。对于任意节点,当它的第i-阶消息计算完成之后,工作节点会拉取它的邻居信息并计算它下一阶的信息。在训练阶段,每个工作节点都可以用批训练的方式基于参数服务器来实现网络参数的更新。


3. 实验效果


本文在十个真实的数据集上进行实验,实验主要是为了说明:1)基于SGAP的图神经网络建模范式具有高可扩展性;2)PaSca系统搜索出来的网络能很好地平衡多个搜索目标,并取得良好的预测性能。


图8 可扩展性分析


本文比较了基于SGAP范式建模的PaSca-APPNP模型以及基于NMP范式建模的GraphSAGE模型在分布式场景下的可扩展性。固定总的批处理大小并增加工作节点的数目,如图8所示,实验发现PaSca-APPNP能够获得更接近理想情况下的加速比。

图9 搜索结果的帕累托平面


如图9所示,实验展示了PaSca系统在Cora数据集的搜索结果的帕累托平面。本文从中挑选了3个代表性的模型,分别命名为PaSca-V1, PaSca-V2和PaSca-V3。这些代表性模型能兼容不同的优化目标,比如PaSca-V3取得了最小的分类误差但是比PaSca-V2的预测时间更久。

图10 搜索结果的训练时间与预测性能对比


实验测试搜索出来的代表性模型在实际Industry数据集上的预测性能和训练时间。可以看到PaSca-V2和PaSca-V3的预测效果都优于JK-Net,但是训练时间更短。此外,如表2所示,本文在八个数据集上测试搜索出来的代表性模型的预测性能。实验发现,基于SGAP建模范式的图神经网络模型能够取得和其他范式下模型相当甚至更好的预测性能。另外,搜索出来的PaSca-V3始终取得了最好的模型预测性能。


表2 搜索结果的预测性能

     

4. 系统应用

Angel Graph图计算团队目前负责论文成果在腾讯内部的技术落地。获奖论文的相关成果已实现于Angel Graph系统并部署于腾讯公司太极机器学习平台,广泛应用于金融风控和社交网络推荐等业务,代表性业务落地场景如下:1)微信公众号文章视频推荐场景点击率提升1.6% 2)PCG平台与内容事业群内容风控场景恶意识别覆盖率提升10% 3)微信运营平台中心社交反欺诈场景欺诈账号识别覆盖率提升20% 4)全民K歌个人主页用户相似推荐场景人均关注提升2.397%。


5. 总结


图神经网络模型在多个图任务上都取得了最佳效果,并受到了学术界和工业界的广泛关注。然而,大多数图神经网络模型可扩展性较低,很难直接用于现实生活中的大规模图数据。此外,设计针对特定图数据和图任务的神经网络结构也需要经验丰富的专家,建模成本很高。为此,本文提出了一个非常新颖的图神经网络建模范式,并基于该范式设计了一个可扩展的图神经结构搜索空间,为图神经网络可扩展性的相关研究指明了一个新的方向和路线。此外,本文还实现并开源了一套多目标(如模型预测效果和资源占用)自动化图神经结构搜索系统,搜索出来的代表性模型在预测性能、效率以及可扩展性方面都取得了较好的平衡。PaSca系统能帮助研究者更好地探索可扩展的图神经网络结构,极大地促进了图神经网络从学术研究走向实际落地。


6. 团队介绍


北京大学数据与智能实验室(Data And Intelligence Research Lab at Peking Univeristy,PKU-DAIR实验室)由北京大学计算机学院崔斌教授领导,长期从事数据库系统、大数据管理与分析、人工智能等领域的前沿研究,在理论和技术创新以及系统研发上取得多项成果,已在国际顶级学术会议和期刊发表学术论文100余篇,发布多个开源项目。课题组同学曾数十次获得包括CCF优博、北大优博、微软学者、苹果奖学金、谷歌奖学金等荣誉。PKU-DAIR实验室持续与工业界展开卓有成效的合作,与腾讯、阿里巴巴、苹果、微软、百度、快手、中兴通讯等多家知名企业开展项目合作和前沿探索,解决实际问题,进行科研成果的转化落地。本论文得到了国家自然科学基金重点项目和北京大学-腾讯协同创新实验室等资助。


登录查看更多
0

相关内容

学术会议,包括国内外相关会议
北大WWW2022最佳学生论文:可扩展的图神经结构搜索系统
专知会员服务
93+阅读 · 2021年5月25日
专知会员服务
57+阅读 · 2021年4月29日
最新基于GNN的推荐系统综述(附110篇论文下载链接)
机器学习与推荐算法
2+阅读 · 2022年2月19日
ICML'21 | 隐私保护下的图神经网络推荐系统
图与推荐
2+阅读 · 2021年11月4日
RecSys2021最佳论文奖出炉(附教程下载)
机器学习与推荐算法
0+阅读 · 2021年10月7日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
8+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年6月22日
Arxiv
13+阅读 · 2022年1月20日
Interest-aware Message-Passing GCN for Recommendation
Arxiv
11+阅读 · 2021年2月19日
Arxiv
99+阅读 · 2020年3月4日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Arxiv
30+阅读 · 2019年3月13日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
11+阅读 · 2018年9月28日
VIP会员
相关VIP内容
北大WWW2022最佳学生论文:可扩展的图神经结构搜索系统
专知会员服务
93+阅读 · 2021年5月25日
专知会员服务
57+阅读 · 2021年4月29日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
8+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年6月22日
Arxiv
13+阅读 · 2022年1月20日
Interest-aware Message-Passing GCN for Recommendation
Arxiv
11+阅读 · 2021年2月19日
Arxiv
99+阅读 · 2020年3月4日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Arxiv
30+阅读 · 2019年3月13日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
11+阅读 · 2018年9月28日
Top
微信扫码咨询专知VIP会员