直播预告 | KDD最佳论文“面向联邦图学习FS-GNN”

2022 年 9 月 7 日 图与推荐
作为数据挖掘、知识发现领域的最高学术会议,每年KDD奖项花落谁家都会引发学界热烈讨论。

今年,中国团队的表现依旧令人瞩目。

清华裘捷中获得博士论文奖亚军,成为亚洲高校首位获得者。

阿里巴巴达摩院智能计算实验室,获得应用数据科学方向最佳论文奖,是中国工业界研究团队首次独立获得这一奖项。

论文提出了一个面向联邦图学习的库FederatedScope-GNN。

主办方SIGKDD评价其“推动了联邦图学习的发展”本文将与他们一起聊聊关于论文研究及背后的故事。

为了促进数据科学研究者的深度交流和经验分享,将门-TechBeat人工智能社区“立马组局”,邀请到包括本次最佳论文得奖机构阿里达摩院团队,与其他KDD获奖嘉宾一起齐聚线上,在北京时间9月8日(周四)上午9-11点举行线上直播专场——KDD 2022群星闪耀·云际会!

欢迎大家预约直播进行观看!

 

一、在图数据上发挥联邦学习能力

本次获奖论文的核心,聚焦在联邦图学习方面。

简单来说,它就是将图学习和联邦学习的优势合璧。

近年来,随着越来越多应用场景对隐私保护的需求增高,联邦学习愈发火热。

它能让用户在数据始终都停留在本地的基础上,通过交换模型参数或中间结果的方式,在云端联合训练,最终让多方用户都能完成模型训练。

也就是常说的让“数据可用不可见”,从而避免“数据孤岛”问题。

目前,如谷歌的Tensorflow Federated(TFF)、微众银行的FATE等,都是目前大热的开源联邦学习框架。

不过,现有的联邦学习工作,更多关注视觉和自然语言领域,对图的支持相对有限

要知道,图(graph)在表示复杂关系方面,具有很大优势。

它是由节点(node)和边(edge)两部分组成的一种数据结构,用来描述对象间关系。

日常生活中,你可以把每个社交账户看作一个节点。预测两个账户是不是有好友关系,就是预测这俩节点之间是否存在连边,从而给你推荐“可能认识的人”。

但是传统神经网络,都是接受几何空间的数据作为输入,无法处理图这种数据结构。

针对这种情况,图神经网络被提出。它能利用神经网络来图进行深度特征抽取等操作,从而实现更好的推理预测效果。

常用的场景有电子商务、药物研发、金融、互联网社交等。而这些场景,对数据保护的需求往往也会很大。

比如银行反洗钱场景下,需要预测每个账户是否为风险账户,但各个银行的账户信息不能相互公开。

银行反洗钱场景

还有药物研发过程中,不同厂商只掌握了分子图中的一部分,大家需要共享信息以完成研发任务,但各自的数据还要相互保密。

上述种种,让大家对联邦图学习算法非常渴望。

这样的背景下,达摩院在本次研究中,把图学习用在联邦学习上。

FederatedScope-GNN(以下简称FS-G)基于达摩院已开源的联邦学习框架FederatedScope(以下简称FS)提出。

首先,FS-G提供了一个统一视图,灵活支持异构数据的交换。

得益于底层框架FS事件驱动(event-driven)的编程范式,多种多样的消息交换和参与者的丰富行为得以模块化进行拆分实现——FS-G允许灵活丰富的模块化行为。

其次,FS-G针对图学习提供了DataZooModelZoo

前者为用户提供丰富多样的联邦图数据集,后者提供相应的模型与算法。

此外,DataZoo还实现了大量不同类型的splitters,即便在单机场景里,通过FS-G提供的注册机制,开发者也能轻松把单机代码搬到联邦场景复用。

再者,针对联邦图学习对超参数敏感的现象,FS-G还实现了高效的模型调优(model tuning)组件。

其中包括多保真度的Successive Halving Algorithm和新近提出的联邦超参优化算法FedEx,以及针对联邦异质任务的个性化。


一个个性化图神经网络示例

因为各个参与者被允许使用独立的特有神经架构,只聚合共享部分,FS-G允许开发者根据实际情况,采用不同的异步训练策略。

最后,FS-G还提供了丰富的隐私评估算法,对算法在隐私保护方面的能力进行检验。


二、春节加班提交论文

对于这次拿下大奖,论文一作王桢说道,“开心是肯定的,感觉自己的工作得到了认可”。

通讯作者李雅亮则表示,因为看到了团队为此付出了多少努力,所以觉得这一切更像是一种水到渠成。

实际上,这项工作的筹备时间要从一年多以前算起。

当时,团队洞察到了隐私保护计算行业的发展趋势。作为技术人员,自然而然想到从工具入手,推动这股研究浪潮更快前进。

所以,FederatedScope被提上了日程,FS-G则是其中非常重要的部分之一。

前面也有提到,联邦图学习的工作可以满足应用场景中更为广泛的需求,但是复杂程度也更高。

刚好,王桢博士非常擅长图学习方面的研究。

引用量超过2500次的知识图谱补全算法TransH,正是他以一作身份完成的工作。

当时,他还正在中山大学数据科学与计算机学院攻读博士学位,通过微软亚研院联合培养项目,完成了这篇论文。

博士毕业后,王桢就加入了阿里巴巴,曾任阿里云高级算法工程师。

作为主要开发者,王桢参与了阿里机器学习平台PAI中A3gent强化学习组件的研发,并将其开源为EasyRL项目。

同期还参与了伯克利大学Ray RLLib项目共建,并被社区认可为项目committer。

之后,王桢加入达摩院,开始专注联邦图领域的研究。多次在KDD Cup比赛中取得高排名成绩,在ICLR、WWW等国际顶会发表多篇论文。

但即便有优秀学者坐镇,由于联邦图学习是一个十分前沿的领域,领域内一些基础性工作都还没有搭建完整,联邦图学习算法本身也会比普通联邦学习算法难,所以研发FS-G的难度并不小。

王桢提到,最初他们甚至连一个可用的数据集都没有。

加之,图数据相较于其他数据类型,在异质消息交换上会存在更多风险;联邦学习的每个参与者也会有更丰富的行为,去处理这些信息。

因此,研究团队需要在图联邦算法上使用一个与以往不同的编程范式,并设计方案使其在图联邦中发挥最大功效,这是有别于常规开发的。

这背后,都需要更多人力、时间的投入。

论文通讯作者李雅亮回忆,今年KDD论文提交的时间,刚好在大年初十。

当时整个团队都在兴奋地忙碌着论文的提交工作,过年几乎都没有休息。

而这些精力的投入,最终也在论文成果中得以显现。

可以看到,FS-G中包含了丰富的联邦图数据集和相应的模型与算法。并且让没有联邦学习背景的开发者,也能自如使用FS-G。

这为后续研究做了大量的基础性工作,可以说是为联邦图学习建立了新基准。

李雅亮在交谈中也表示,基础性工作的完成,能够吸引更多研究人员参与联邦图学习的研究。

我觉得,这是我们工作能够获得组委会认可的一大原因。

值得一提的,李雅亮作为本次成果的通讯作者,还曾负责FederatedScope的开源工作。

他现在是达摩院智能计算实验室的高级算法专家。

2017年从纽约州立大学布法罗分校博士毕业,研究领域覆盖数据融合、因果推断、自动机器学习、隐私保护计算等领域。

曾担任NeurIPS’21、NeurIPS’21、AAAI’22的领域主席,在IJCAI和NeurIPS上三次组织workshop,在CIKM’22上组织了AnalytiCup比赛,并在KDD、AAAI上多次做了Tutorial。

据他透露,FederatedScope现在已经开源0.2.0版本。

新版本可以更好支持大规模下的异步联邦学习,对用户的友好度也更高。


三、One More Thing

最后是福利时刻~

在聊完获奖论文的相关内容后,我们还找两位大佬问了问AI研究方面的学习经验,大家赶紧来抄作业!

首先,两位学者都表示,想学好AI,数学非常关键

李雅亮提到,自己观察到这几年很多学生、实习生的数学能力都有些下降,这其实非常值得关注。

现在很多工具变得好用后,大家开始更追求短平快的东西,忽略了更为深入、本质的知识学习。其实数学作为基础能力,和代码这种工程方面的能力,二者缺一不可。

其次,是大家都关心的怎么读论文的问题。

王桢表示,读好的论文才是关键所在。

自己要先学会去甄别什么是好的论文,然后把时间花在刀刃上。

而且相较于读论文,李雅亮更鼓励大家去多读书。因为书会帮助大家更好去建立知识体系。

现在,即便他们都已经毕业很多年了,在达摩院智能计算实验室也经常组织读书活动。

推荐大家读一下《Fundation of Machine Learning》!我相信无论是小白还是行家,都会从这本书中得到更多新的见解。

除了学习经验,我们还问了问大佬们有啥业余爱好。

结果他们都表示,他们做研究就是靠兴趣驱动的,所以平常也很爱钻研。

这点你学废了吗


四、9.8(本周四)直播预告

想知道更多关于本届KDD会议的获奖工作,以及论文背后的故事?欢迎预约由KDD五位获奖者与特邀飞行嘉宾、去年新星奖获得者胡侠老师,在北京时间9月8日(周四)上午9-11点举行线上直播专场——KDD 2022群星闪耀·云际会。

各位嘉宾的工作介绍请点击链接,提前预习哦~

👉KDD' 22获奖者畅聊数据科学,9.8线上见!👈



登录查看更多
0

相关内容

ICLR | 训练面向分子模拟的十亿级参数 GNN
专知会员服务
7+阅读 · 2022年6月27日
CIKM2021 | CD-GNN:一种跨领域的图神经网络模型
专知会员服务
28+阅读 · 2021年11月9日
专知会员服务
32+阅读 · 2021年10月4日
专知会员服务
37+阅读 · 2020年11月24日
专知会员服务
23+阅读 · 2020年9月25日
专知会员服务
30+阅读 · 2020年9月4日
六篇 CIKM 2019 必读的【图神经网络(GNN)】长文论文
专知会员服务
37+阅读 · 2019年11月3日
ICLR'21 | GNN联邦学习的新基准
图与推荐
11+阅读 · 2021年11月15日
ICML'21 | 隐私保护下的图神经网络推荐系统
图与推荐
2+阅读 · 2021年11月4日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
16+阅读 · 2022年11月1日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
53+阅读 · 2018年12月11日
Arxiv
26+阅读 · 2018年9月21日
VIP会员
相关VIP内容
ICLR | 训练面向分子模拟的十亿级参数 GNN
专知会员服务
7+阅读 · 2022年6月27日
CIKM2021 | CD-GNN:一种跨领域的图神经网络模型
专知会员服务
28+阅读 · 2021年11月9日
专知会员服务
32+阅读 · 2021年10月4日
专知会员服务
37+阅读 · 2020年11月24日
专知会员服务
23+阅读 · 2020年9月25日
专知会员服务
30+阅读 · 2020年9月4日
六篇 CIKM 2019 必读的【图神经网络(GNN)】长文论文
专知会员服务
37+阅读 · 2019年11月3日
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员