SuperGAT,如何自适应的设计图注意力方案:同质性和平均度数

2022 年 1 月 17 日 图与推荐

本文核心:提出SuperGAT模型,通过对图网络中存在的边对节点表示学习进行调整,主要是将图网络中的边是否存在这个点以损失形式加入到loss函数中,并探讨了影响图注意力机制的两个重要因素: homophilyaverage degre.

下载地址:https://openreview.net/forum?id=Wi5KUNlqWty

GITHUB:https://github.com/dongkwan-kim/SuperGAT


一、摘要

注意力机制在图神经网络中十分重要,通过计算邻居节点对中心节点影响的权重大小来更好的进行图表示学习。但是,当图中含有大量噪音信息时,如何来设计更优的注意力方案,本文提出了SuperGAT模型a self-supervised graph attention network。SuperGAT模型通过自监督任务来预测边是否存在来解决GAT存在的问题,通过对edge进行编码,SuperGAT在区分错误连接的邻居时学习到了更合适的注意力权重,这点类似于自监督学习中通过改变网络节点的连接关系来进行网络数据去噪的方法。同时本文发现图神经网络中影响注意力机制效果的两个重要因素: 图的homophily和average degree,探索了什么样的图神经网络应该选择何种注意力方案。


二、模型

文中通过结合原始GAT模型提出了四种注意力的设计方案,分别是: GO、DP、SD和MX 

GO是原生的GAT模型 

DP方案指的是将两个节点特征向量相乘 

在此基础上,本文提出了自监督的图注意力网络SuperGAT,学习任务是预测边是否存在,算法通过对链接预测任务来实现对边的自监督学习,对任意两个节点都可以计算他们之间存在边的概率。
因此,本文基于SuperGAT又给出SD和MX两种设计
SuperGAT损失函数如下 

由三部分构成,其中第一项是分类损失函数,最后一项是正则项,中间一项则是来控制两个节点之间的边是否存在,如果两个节点在网络中不存在边,则经过计算后中间一项损失会很大,相当于是能够通过图网络中的已知边的关系来调整节点表征的学习。


三、实验

本文的实验部分挺多,首先是提出了四个问题并进行了解答,分别是 

RQ1. 注意力机制能否学习到节点标签的一致性;

RQ2. 注意力机制能够预测边的存在; 

RQ3. 如何自适应的设计图注意力方案; 

RQ4. 基于RQ3的设计选择是否适用于真实世界的数据集。

最终本文在17个数据集上进行了实验验证,SuperGAT均 取得了不错的效果

登录查看更多
2

相关内容

图注意力网络(Graph Attention Network,GAT),它通过注意力机制(Attention Mechanism)来对邻居节点做聚合操作,实现了对不同邻居权重的自适应分配,从而大大提高了图神经网络模型的表达能力。
WWW2022 | 迷途知返:分布迁移下的图神经网络自训练方法
专知会员服务
16+阅读 · 2022年2月19日
【AAAI2022】同时适用于同质和异质性的图神经网络
专知会员服务
31+阅读 · 2022年1月3日
专知会员服务
27+阅读 · 2021年3月17日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
专知会员服务
56+阅读 · 2021年1月26日
KDD20 | AM-GCN:自适应多通道图卷积网络
专知会员服务
39+阅读 · 2020年8月26日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
CIKM21 | 图+推荐系统: 比LightGCN更有效的UltraGCN
机器学习与推荐算法
2+阅读 · 2021年11月30日
唯快不破! 比LightGCN还要快10倍的UltraGCN
图与推荐
1+阅读 · 2021年11月22日
KDD'21 | 如何评估GNN的解释性模型?
图与推荐
1+阅读 · 2021年9月30日
专栏 | 深入理解图注意力机制
机器之心
25+阅读 · 2019年2月19日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
13+阅读 · 2022年1月20日
Arxiv
19+阅读 · 2021年2月4日
Arxiv
14+阅读 · 2019年11月26日
Exploring Visual Relationship for Image Captioning
Arxiv
15+阅读 · 2018年9月19日
Arxiv
27+阅读 · 2018年4月12日
VIP会员
相关VIP内容
WWW2022 | 迷途知返:分布迁移下的图神经网络自训练方法
专知会员服务
16+阅读 · 2022年2月19日
【AAAI2022】同时适用于同质和异质性的图神经网络
专知会员服务
31+阅读 · 2022年1月3日
专知会员服务
27+阅读 · 2021年3月17日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
专知会员服务
56+阅读 · 2021年1月26日
KDD20 | AM-GCN:自适应多通道图卷积网络
专知会员服务
39+阅读 · 2020年8月26日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
相关资讯
CIKM21 | 图+推荐系统: 比LightGCN更有效的UltraGCN
机器学习与推荐算法
2+阅读 · 2021年11月30日
唯快不破! 比LightGCN还要快10倍的UltraGCN
图与推荐
1+阅读 · 2021年11月22日
KDD'21 | 如何评估GNN的解释性模型?
图与推荐
1+阅读 · 2021年9月30日
专栏 | 深入理解图注意力机制
机器之心
25+阅读 · 2019年2月19日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员