We introduce a new class of graph neural networks (GNNs), by combining several concepts that were so far studied independently - graph kernels, attention-based networks with structural priors and more recently, efficient Transformers architectures applying small memory footprint implicit attention methods via low rank decomposition techniques. The goal of the paper is twofold. Proposed by us Graph Kernel Attention Transformers (or GKATs) are much more expressive than SOTA GNNs as capable of modeling longer-range dependencies within a single layer. Consequently, they can use more shallow architecture design. Furthermore, GKAT attention layers scale linearly rather than quadratically in the number of nodes of the input graphs, even when those graphs are dense, requiring less compute than their regular graph attention counterparts. They achieve it by applying new classes of graph kernels admitting random feature map decomposition via random walks on graphs. As a byproduct of the introduced techniques, we obtain a new class of learnable graph sketches, called graphots, compactly encoding topological graph properties as well as nodes' features. We conducted exhaustive empirical comparison of our method with nine different GNN classes on tasks ranging from motif detection through social network classification to bioinformatics challenges, showing consistent gains coming from GKATs.


翻译:我们引入了新型的图形神经网络(GNNs),方法是将一些迄今为止独立研究的概念结合起来,这些概念包括:图形内核,关注的网络,有结构前科的网络,以及最近,运用低级分解技术的小型记忆足迹的高效变异体结构,隐含着关注方法。文件的目标是双重的。我们Gag Cernel注意变异器(或GKATs)提议,它们比SONTA GNNS(能够在一个层内建模长期依赖关系)更清晰得多。因此,它们可以使用更浅的建筑设计。此外,在输入图形节点的数量中,GKAT关注层的注意层是线性,而不是四面形的。即使这些图层密度高,要求的计算能力也比普通的笔对等的注意能力要低。它们通过应用新的图表内核图类别,通过随机的图表进行随机的特征变形图解。作为引进技术的副产品,我们获得了一种新的可学习的图形素描图,叫做,缩的表层图形属性,以及近似的表层图形图表属性的图表属性属性,以及新式图表的图形图形图形图的图形图形图形图形图形图的图的图的图的图的图的图的图状图状图状的图状的图状的图状的图状的图状图状图状图状图状图状的图状的图状的图状图状的图状的图状的图状的图状的图状图状的图状的图状的图状图状图状图状图状图状图状图状图状的图状的图状图状图状图状图状图状图状图状图状图状的图状图状图状的图状的图状的图状的图状的图状的图状的图状的图状的图状的图状的图状的图状的图状的图状的图状的图状的图状的图状图状图状的图状图状的图状的图状的图状的图状的图状的图状的图状的图状的图状的图状的图状的图状图状的图状的图状的图状

1
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
最新《Transformers模型》教程,64页ppt
专知会员服务
319+阅读 · 2020年11月26日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
52+阅读 · 2020年10月25日
一份简单《图神经网络》教程,28页ppt
专知会员服务
126+阅读 · 2020年8月2日
Transformer文本分类代码
专知会员服务
118+阅读 · 2020年2月3日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Hyperbolic Graph Attention Network
Arxiv
6+阅读 · 2019年12月6日
Signed Graph Attention Networks
Arxiv
7+阅读 · 2019年9月5日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
Relational Graph Attention Networks
Arxiv
3+阅读 · 2019年4月11日
Arxiv
9+阅读 · 2018年5月24日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关VIP内容
【图与几何深度学习】Graph and geometric deep learning,49页ppt
最新《Transformers模型》教程,64页ppt
专知会员服务
319+阅读 · 2020年11月26日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
52+阅读 · 2020年10月25日
一份简单《图神经网络》教程,28页ppt
专知会员服务
126+阅读 · 2020年8月2日
Transformer文本分类代码
专知会员服务
118+阅读 · 2020年2月3日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
相关资讯
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Hyperbolic Graph Attention Network
Arxiv
6+阅读 · 2019年12月6日
Signed Graph Attention Networks
Arxiv
7+阅读 · 2019年9月5日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
Relational Graph Attention Networks
Arxiv
3+阅读 · 2019年4月11日
Arxiv
9+阅读 · 2018年5月24日
Arxiv
10+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员