(KDD'21) 异构图神经网络到底哪家强?清华、微软、阿里、中科院等推出HGB基准!

2021 年 11 月 9 日 学术头条
异构图在工业界的诸多场景有着广泛的应用,随着图神经网络的兴起,许多异构图神经网络也如雨后春笋般涌现出来。然而由于缺乏有效的基准数据集,很多工作难以公平比较。今年 KDD上,来自清华、微软、阿里、中科院、宾大等单位的合作者共同推出 Heterogenous Graph Benchmark(HGB)和强基线方法 Simple-HGN,希望可以推动该领域更快更健康地发展。

文章链接: http://keg.cs.tsinghua.edu.cn/jietang/publications/KDD21-Lv-et-al-HeterGNN.pdf

如果你是数据挖掘领域的研究者或者算法工程师,那么你对“异构图(Heterogenous Graph)”或者“异构信息网络(Heterogenous Information Network)”已经并不陌生。简单地说,与一般的(同构)图不同,异构图中的点和边分为不同类型,甚至带有不同种类的信息。例如下面的三个例子中的学术网络(来自于 UCLA 的孙怡舟老师等人的讲稿),如果将会议、论文名、作者当成同一张图中的点,那么不同的类型自然拥有不同的语义信息,这也会成为我们构建模型时考虑的重要因素。


随着以  GCN  为代表的图神经网络在近几年 爆火 ,越来越多的人将目光转向了异构图神经网络。 其中较为著名的模型有 异构图注意力网络( HAN )、 Graph transformer network( GTN )、早期异构图神经网络( HetGNN )、元路径集成图神经网络( MAGNN )、 Heterogeneous graph transformer(HGT) 、基于注意力异构结构学习图神经网络( HetSANN )、关系结构异构图神经网络( RSHN )、关系图卷积网络( RGCN )和用于推荐的知识图卷积网络( KGCN )、知识图注意力网络( KGAT )等十余种。

然而令人遗憾的是,异构图往往和目标数据高度耦合,许多工作使用了完全不同的数据集,或者在相同数据集上设定不同,这使得他们难以相互比较。那么,异构图神经网络到底哪家强?

今年一篇 KDD 的文章里,来自清华的唐杰组、微软研究院的东昱晓、阿里巴巴达摩院的周畅以及来自中科院和宾大的研究者一起仔细测评了每一种模型。

随着同构图领域 OGB 基准的推出,图神经网络有了一决高下的舞台;文章也推出了横跨三大任务 11 个数据集的异构图领域的基准 Heterogenous Graph Benchmark(HGB)和强基线方法 Simple-HGN。

令人担忧的测评结果


文章的作者们首先对现有的异构图神经网络进行了详尽的分析,现有的工作大多数都是开源的,然而由于缺乏统一的测评基准,一些实现的小问题难以被发现,基线方法很多时候也没有被充分调优。


上图是文章展示的部分工作的复现结果,带星号的是文中报告的结果。令人欣慰的是绝大部分本身的可复现性良好——但是同样有一个令人担忧的现象,同构图的方法 GCN、GAT 等的表现被大大低估了。另外,少部分工作还存在实现上的错误,例如数据泄露等。

异构图测评基准 HGB

HGB  收集了在  个任务上共收集了  11  个中等规模异构图数据集,三个任务分别是节点分类、链接预测、基于知识图谱的推荐,相关数据集的统计信息如图所示:


为了真正凸显图神经网络结构的影响,排除其他的因素的干扰, HGB  的测评流程中将模型训练分为三个部分: 特征预处理、图神经网络、下游任务的解码器和损失函数。 文章发现合适的预处理方法或者下游任务解码器对最终结果的影响甚至大于结构的改进本身,因此预设了多种不同的处理方法,研究人员可以在验证集上选取与自己的模型配合最好的预处理和解码器。

目前,HGB 的网站已经上线于 biendata,网址为 https://www.biendata.xyz/hgb

强大的新基线模型Simple-HGN


如果集前人方法之大成,异构图神经网络能做到多强呢?

研究者将消融实验中发现的最简单有效的两种手段:异构信息注意力和隐含层 L2 正则化加到经典同构方法 GAT 上,并且加入了来自于 NLP 模型 Realformer 的注意力残差机制,成功设计了一种在 HGB 上表现超过之前所有模型的强大新基线 Simple-HGN(下图):


与之前的很多方法相比, Simple-HGN  的所有改进都非常容易实现,并且不需要使用依赖人工知识的元路径( Meta-Path )。 文章还给出所有方法在  HGB  上测评的结果。


如何开始 HGB 刷榜之旅?


文章作者已经将所有代码整合并开源到了  https://github.com/THUDM/HGB ,并且提供了 Simple-HGN 基于流行图神经网络框架 DGL 和 CogDL 的实现。

1. 代码下载地址: https://github.com/THUDM/HGB
数据下载地址: https://www.biendata.xyz/hgb/#/datasets ,跑通 HGB 训练流程。

2.采取与 Simple-HGN 相同的接口,设计自己的图神经网络模型,并将测试集上预测的结果提交到 HGB 网站上得到 test set 分数(对于节点分类或链接预测任务);对于知识推荐任务,真实标签已经给出,离线测评即可。

3.按照网站的指引,填写 Leaderboard 申请表单,将自己的成绩和可复现代码附上,管理员验证后就手动将成绩上榜。

鉴于 Simple-HGN 并不难的设计却能在 HGB 的 11 项任务上有很好的提升,异构图神经网络领域仍然有巨大的上升空间;文章还指出,在图神经网络时代,元路径是否还有用,要怎么用,都是非常值得探究的问题,希望后续在 HGB 上刷榜的模型可以给我们带来更多的启示。

KDD 文章链接:http://keg.cs.tsinghua.edu.cn/jietang/publications/KDD21-Lv-et-al-HeterGNN.pdf
登录查看更多
13

相关内容

AAAI 2022|对抗攻击鲁棒的异质图神经网络
专知会员服务
35+阅读 · 2022年3月28日
CIKM2021 | 异质图上的图神经网络对比预训练
专知会员服务
15+阅读 · 2021年11月8日
专知会员服务
26+阅读 · 2021年7月21日
专知会员服务
28+阅读 · 2021年5月21日
近期必读的五篇KDD 2020【推荐系统 (RS) 】相关论文
专知会员服务
64+阅读 · 2020年8月11日
AAAI 2022|对抗攻击鲁棒的异质图神经网络
专知
3+阅读 · 2022年3月29日
WSDM2022 | 数据困境: 我们究竟有多了解推荐系统数据集?
机器学习与推荐算法
2+阅读 · 2022年2月25日
ICLR'21 | GNN联邦学习的新基准
图与推荐
11+阅读 · 2021年11月15日
Top100值得一读的图神经网络
图与推荐
0+阅读 · 2021年10月25日
论文浅尝 | 异构图 Transformer
开放知识图谱
7+阅读 · 2021年10月13日
KDD'21 | 异质图神经网络的可微元图搜索
图与推荐
1+阅读 · 2021年10月11日
WWW 2020 开源论文 | 异构图Transformer
PaperWeekly
13+阅读 · 2020年4月3日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
19+阅读 · 2021年2月4日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
VIP会员
相关VIP内容
AAAI 2022|对抗攻击鲁棒的异质图神经网络
专知会员服务
35+阅读 · 2022年3月28日
CIKM2021 | 异质图上的图神经网络对比预训练
专知会员服务
15+阅读 · 2021年11月8日
专知会员服务
26+阅读 · 2021年7月21日
专知会员服务
28+阅读 · 2021年5月21日
近期必读的五篇KDD 2020【推荐系统 (RS) 】相关论文
专知会员服务
64+阅读 · 2020年8月11日
相关资讯
AAAI 2022|对抗攻击鲁棒的异质图神经网络
专知
3+阅读 · 2022年3月29日
WSDM2022 | 数据困境: 我们究竟有多了解推荐系统数据集?
机器学习与推荐算法
2+阅读 · 2022年2月25日
ICLR'21 | GNN联邦学习的新基准
图与推荐
11+阅读 · 2021年11月15日
Top100值得一读的图神经网络
图与推荐
0+阅读 · 2021年10月25日
论文浅尝 | 异构图 Transformer
开放知识图谱
7+阅读 · 2021年10月13日
KDD'21 | 异质图神经网络的可微元图搜索
图与推荐
1+阅读 · 2021年10月11日
WWW 2020 开源论文 | 异构图Transformer
PaperWeekly
13+阅读 · 2020年4月3日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
相关基金
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
13+阅读 · 2021年6月14日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
19+阅读 · 2021年2月4日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Top
微信扫码咨询专知VIP会员