Graph attention networks (GATs) have been recognized as powerful tools for learning in graph structured data. However, how to enable the attention mechanisms in GATs to smoothly consider both structural and feature information is still very challenging. In this paper, we propose Graph Joint Attention Networks (JATs) to address the aforementioned challenge. Different from previous attention-based graph neural networks (GNNs), JATs adopt novel joint attention mechanisms which can automatically determine the relative significance between node features and structural coefficients learned from graph topology, when computing the attention scores. Therefore, representations concerning more structural properties can be inferred by JATs. Besides, we theoretically analyze the expressive power of JATs and further propose an improved strategy for the joint attention mechanisms that enables JATs to reach the upper bound of expressive power which every message-passing GNN can ultimately achieve, i.e., 1-WL test. JATs can thereby be seen as most powerful message-passing GNNs. The proposed neural architecture has been extensively tested on widely used benchmarking datasets, and has been compared with state-of-the-art GNNs for various downstream predictive tasks. Experimental results show that JATs achieve state-of-the-art performance on all the testing datasets.


翻译:图表关注网络(GATs)已被公认为是图表结构数据中学习的有力工具。然而,如何使GATs的注意机制能够顺利地考虑结构性和特征信息,仍然非常困难。在本文中,我们提议“图形联合关注网络(JATs)”应对上述挑战。不同于以往基于关注的图形神经网络(GNNSs),JATs采用了新的联合关注机制,这些机制可以自动确定在计算关注分数时从图形表层学中学会的节点特征和结构系数之间的相对重要性。因此,关于更多结构性属性的表述可以由JATs进行广泛测试。此外,我们理论上分析JATs的表达力和特征信息特征信息信息信息信息信息,并进一步建议改进联合关注机制的战略,使JATs能够达到每个信息传递GNNS最终都能达到的表达力的上限,即1-WL测试。因此,JATs可以被视为最强大的信息传递GNNSs。拟议的神经结构已经在广泛使用基准数据集中进行了测试,并且与JATs-art 实验所有下游级数据测试结果。

0
下载
关闭预览

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
178+阅读 · 2020年4月26日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Attention最新进展
极市平台
5+阅读 · 2020年5月30日
LibRec 精选:你见过最有趣的论文标题是什么?
LibRec智能推荐
4+阅读 · 2019年11月6日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Signed Graph Attention Networks
Arxiv
7+阅读 · 2019年9月5日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
Relational Graph Attention Networks
Arxiv
3+阅读 · 2019年4月11日
Arxiv
9+阅读 · 2018年2月4日
VIP会员
相关资讯
Attention最新进展
极市平台
5+阅读 · 2020年5月30日
LibRec 精选:你见过最有趣的论文标题是什么?
LibRec智能推荐
4+阅读 · 2019年11月6日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
相关论文
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Signed Graph Attention Networks
Arxiv
7+阅读 · 2019年9月5日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
Relational Graph Attention Networks
Arxiv
3+阅读 · 2019年4月11日
Arxiv
9+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员