最新6篇ICLR2021篇图神经网络论文推荐

2021 年 1 月 26 日 专知

CCF-S级会议ICLR刚刚放榜~(小编要是中了ICLR能吹一年😱😱😱

这里推荐几篇ICLR 2021接收的最新GNN论文~

1.时序网络中的利用因果匿名游走的归纳表示学习

2.具有自监督能力的图注意力机制

3.图神经网络的瓶颈及其实践意义

4.ADAGCN:将图卷积网络转换为深层模型

5.通过图多层池化准确学习图表示

6.基于神经网络的图粗化

   1.INDUCTIVE REPRESENTATION LEARNING IN TEMPORAL NETWORKS VIA CAUSAL ANONYMOUS WALKS

https://arxiv.org/pdf/2101.05974.pdf

时序网络是现实世界中动态系统的抽象。这些网络通常根据某些定律发展,例如社交网络中很普遍的三元闭包定律。归纳表示学习时间网络应该能够捕获此类定律,并进一步将遵循相同定律应用于未在训练过程中见过的数据,即inductive的能力。以前的工作主要依赖于网络节点身份或丰富边属性,通常无法提取这些定律。因此,本文提出了因果关系匿名游走(Causal Anonymous Walks, CAW)inductively的进行时序网络的表示学习。

具体来说CAW是通过时间随机游走提取类似motif的结构来捕获图的动态性,这避免了motif计算复杂的问题。同时,CAW采用新颖的匿名化策略,用一组节点的命中数来替换节点身份以保持模型inductive的能力,同时也建立了motif之间的相关性这对于某些图挖掘任务(如链路预测)是非常关键的。进一步的本文进一步提出了一个神经网络模型CAW-N来编码CAW。最后,在6个真实时序网络数据集上CAW-N均取得了大幅度的提升例如AUC提升了15%!

模型

因果关系提取和基于集合的匿名
实验结果

可以看到CAW模型明显优于其他模型。


2.HOW TO FIND YOUR FRIENDLY NEIGHBORHOOD:GRAPH ATTENTION DESIGN WITH SELF-SUPERVISION

https://openreview.net/pdf?id=Wi5KUNlqWty

图神经网络中的注意力机制旨在分配更大的权重给重要的邻居节点,以进行更好地表示。但是,图神经网络学到的东西不是那么容易理解的,尤其是在有噪声的图上。而本文提出的自监督的图注意力网络(SuperGAT)就是用来解决这一问题的。

模型图

图1

原始GAT与SuperGAT对比:原始的GAT如矩形图中所示。SuperGAT通过一对节点中是否存在边来引导注意力。用   和   表示节点   和节点   之间有边的概率   ,即

   

实验结果

图2

3.ON THE BOTTLENECK OF GRAPH NEURAL NETWORKSAND ITS PRACTICAL IMPLICATIONS

https://openreview.net/pdf?id=i80OPhOCVH2

自从Gori等人提出图神经网络(GNN)以来,训练GNN的主要问题之一是在图中的远距离节点之间传播信息。本文提出GNN在较长路径中聚集信息时会出现瓶颈。这个瓶颈导致over-squarshing。这样GNN就无法传播源自远程节点的消息,执行效果也不好。本文中调整了远程GNN模型问题,无需任何调整或额外的权重即可突破瓶颈得到改善后的结果。

模型图

图3

从图中可以看出,相对RNN而言,GNN中的瓶颈对结果的影响更大。

这项工作并非旨在提出新的GNN变体。相反,这项工作的主要贡献是 :强调GNN固有的瓶颈问题,并说明瓶颈问题是有害的。

实验结果

图4

从图中可以看出,在邻居匹配问题中,随着GNN深度的增加,模型的精确度在下降。

4.ADAGCN: ADABOOSTING GRAPH CONVOLUTIONALNETWORKS INTO DEEP MODELS

https://openreview.net/pdf?id=QkRbdiiEjM

深图模型的设计仍有待研究,其中至关重要部分是如何以有效的方式探索和利用来自邻居的跃迁。在本文中,通过将AdaBoost集成到网络计算中,提出了一种新颖的类RNN深度图神经网络架构。提出的图卷积网络AdaGCN(Adaboosting图卷积网络)具有有效提取来自当前节点的高阶邻居知识的能力。

不同于其他直接堆叠图卷积层的图神经网络,AdaGCN在所有“层”之间共享相同的基础神经网络架构并进行递归优化处理,类似于RNN。

此外,本文还在理论上建立了AdaGCN与现有图卷积方法之间的联系,从而展示了模型的优势。最后,用实验证明了AdaGCN的计算优势。

模型图

图5

实验结果

图6

表格中显示了不同模型的精度对比。可以看到AdaGCN比其他模型表现更好。


5.ACCURATE LEARNING OF GRAPH REPRESENTATIONSWITH GRAPH MULTISET POOLING

https://openreview.net/pdf?id=JHcqXGaqiGn


消息传递图神经网络已广泛用于建模图数据,在许多图形分类和链路预测任务上取得了很好的效果。然而,为了获得图形的准确表示还需要定义良好的池化功能,即在不丢失单个节点特征和全局图结构的前提下将节点表示集映射到紧凑的形式。

为了解决现有的图池化的限制,本文将图池化问题表述为带有关于图结构的辅助信息的多集编码问题,并提出了图形多集转换器(GMT)。该方法可以轻松扩展到以前的节点聚类方法,来进行分层图池化。实验结果表明,GMT明显优于其他图形池化方法,并在图重构和生成任务上获得很大的性能提升。

模型图

图7

实验结果

图8

从实验结果可以看出GMT比其他模型效果更好

6.GRAPH COARSENING WITH NEURAL NETWORKS

https://openreview.net/pdf?id=uxpzitPEooJ

随着大规模图的日益流行,处理,提取和分析大型图形数据的计算难题有着越来越重要意义。图粗化是一种在保持基本属性的同时减小图尺寸的技术。尽管有丰富的图粗化文献,但只有有限的数据驱动方法。

本文利用图深度学习的最新进展来进行图粗化。首先提出测量粗化算法质量的框架并说明我们需要根据目标仔细选择图粗化的Laplace运算符和相关的投影/提升运算符。由于粗化图的当前边权可能不是最优的选择,用图神经网络对权重分配图进行参数化并对其进行训练,以无监督的方式提高粗化质量。通过在合成网络和真实网络上进行的广泛实验,证明了该方法显着改善了各种条件下的常用图粗化方法指标,缩小率,图尺寸和图类型。它概括为较大的尺寸(训练图的25倍),可适应不同的损耗(可微分和不可微分),并且可以缩放到比以前大得多的图。

模型图

图9

实验结果

可以看到GOREN可以在不同类型的图上优化粗化方法。


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“GNN6” 可以获取最新6篇ICLR2021篇图神经网络论文推荐专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

ICLR,全称为「International Conference on Learning Representations」(国际学习表征会议),2013 年才刚刚成立了第一届。这个一年一度的会议虽然今年才办到第五届,但已经被学术研究者们广泛认可,被认为「深度学习的顶级会议」。 ICLR由位列深度学习三大巨头之二的 Yoshua Bengio 和 Yann LeCun 牵头创办。 ICLR 希望能为深度学习提供一个专业化的交流平台。但实际上 ICLR 不同于其它国际会议,得到好评的真正原因,并不只是他们二位所自带的名人光环,而在于它推行的 Open Review 评审制度。
专知会员服务
27+阅读 · 2021年5月2日
专知会员服务
27+阅读 · 2021年3月17日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【AAAI2021-斯坦福】身份感知的图神经网络
专知会员服务
38+阅读 · 2021年1月27日
专知会员服务
37+阅读 · 2020年11月24日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
KDD20 | AM-GCN:自适应多通道图卷积网络
专知
8+阅读 · 2020年8月26日
CIKM2020 | 最新9篇推荐系统相关论文
机器学习与推荐算法
12+阅读 · 2020年8月20日
【图神经网络入门】GAT图注意力网络
深度学习自然语言处理
28+阅读 · 2020年5月16日
图神经网络时代的深度聚类
图与推荐
5+阅读 · 2020年5月16日
图神经网络入门(三)GAT图注意力网络
专知
7+阅读 · 2020年5月15日
WWW 2020 开源论文 | 异构图Transformer
PaperWeekly
13+阅读 · 2020年4月3日
赛尔笔记 | 一文读懂图神经网络
哈工大SCIR
81+阅读 · 2019年7月12日
论文浅尝 | 图神经网络综述:方法及应用
开放知识图谱
113+阅读 · 2019年2月14日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
Arxiv
14+阅读 · 2019年11月26日
Arxiv
13+阅读 · 2019年11月14日
Arxiv
3+阅读 · 2018年2月11日
VIP会员
相关VIP内容
专知会员服务
27+阅读 · 2021年5月2日
专知会员服务
27+阅读 · 2021年3月17日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【AAAI2021-斯坦福】身份感知的图神经网络
专知会员服务
38+阅读 · 2021年1月27日
专知会员服务
37+阅读 · 2020年11月24日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
相关资讯
KDD20 | AM-GCN:自适应多通道图卷积网络
专知
8+阅读 · 2020年8月26日
CIKM2020 | 最新9篇推荐系统相关论文
机器学习与推荐算法
12+阅读 · 2020年8月20日
【图神经网络入门】GAT图注意力网络
深度学习自然语言处理
28+阅读 · 2020年5月16日
图神经网络时代的深度聚类
图与推荐
5+阅读 · 2020年5月16日
图神经网络入门(三)GAT图注意力网络
专知
7+阅读 · 2020年5月15日
WWW 2020 开源论文 | 异构图Transformer
PaperWeekly
13+阅读 · 2020年4月3日
赛尔笔记 | 一文读懂图神经网络
哈工大SCIR
81+阅读 · 2019年7月12日
论文浅尝 | 图神经网络综述:方法及应用
开放知识图谱
113+阅读 · 2019年2月14日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
Top
微信扫码咨询专知VIP会员