图神经网络中的注意力机制旨在将较大的权重分配给重要的邻居节点,以实现更好的表示。但是,人们对图的学习了解得不好,尤其是当图嘈杂时。在本文中,作者提出了一种自监督图注意力网络(SuperGAT),这是一种针对noisy图改进的图注意力模型。自监督的关键是找到数据中存在的监督信息,其中预测边存在和不存在是一个能够编码节点之间关系的监督信息,也被广泛的使用。本文利用这个与自监督任务兼容的两种注意力形式来预测边的存在和缺失。提出的SuperGAT通过对边进行编码,在区分错误link的邻居时会获得更多的表达注意。另外本文发现两个图上的基本属性会影响注意力的形式和自监督的有效性:同构和平均度(homophily and average degree)。这两个图的属性,可为使用哪种注意力设计提供指导。本文对17个现实世界数据集进行的实验表明,该方法可以泛化到其中的15个数据集,并且得到比基线更高的性能。

成为VIP会员查看完整内容
43

相关内容

图神经网络 (GNN) 是一种连接模型,它通过图的节点之间的消息传递来捕捉图的依赖关系。与标准神经网络不同的是,图神经网络保留了一种状态,可以表示来自其邻域的具有任意深度的信息。近年来,图神经网络(GNN)在社交网络、知识图、推荐系统、问答系统甚至生命科学等各个领域得到了越来越广泛的应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
39+阅读 · 2021年4月5日
专知会员服务
32+阅读 · 2021年2月21日
专知会员服务
18+阅读 · 2021年2月8日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
专知会员服务
56+阅读 · 2021年1月26日
专知会员服务
107+阅读 · 2020年12月21日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
注意力图神经网络的多标签文本分类
专知
8+阅读 · 2020年3月28日
注意力能提高模型可解释性?实验表明:并没有
黑龙江大学自然语言处理实验室
11+阅读 · 2019年4月16日
ACL 2018 论文解读 | 基于深度强化学习的远程监督关系抽取
黑龙江大学自然语言处理实验室
15+阅读 · 2018年12月10日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
结合弱监督信息的凸聚类
计算机研究与发展
6+阅读 · 2017年8月30日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
An Attentive Survey of Attention Models
Arxiv
44+阅读 · 2020年12月15日
Arxiv
14+阅读 · 2019年11月26日
Arxiv
9+阅读 · 2018年5月24日
VIP会员
相关VIP内容
专知会员服务
39+阅读 · 2021年4月5日
专知会员服务
32+阅读 · 2021年2月21日
专知会员服务
18+阅读 · 2021年2月8日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
专知会员服务
56+阅读 · 2021年1月26日
专知会员服务
107+阅读 · 2020年12月21日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
相关资讯
注意力图神经网络的多标签文本分类
专知
8+阅读 · 2020年3月28日
注意力能提高模型可解释性?实验表明:并没有
黑龙江大学自然语言处理实验室
11+阅读 · 2019年4月16日
ACL 2018 论文解读 | 基于深度强化学习的远程监督关系抽取
黑龙江大学自然语言处理实验室
15+阅读 · 2018年12月10日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
结合弱监督信息的凸聚类
计算机研究与发展
6+阅读 · 2017年8月30日
相关论文
微信扫码咨询专知VIP会员