Graph neural networks have recently achieved remarkable success in representing graph-structured data, with rapid progress in both the node embedding and graph pooling methods. Yet, they mostly focus on capturing information from the nodes considering their connectivity, and not much work has been done in representing the edges, which are essential components of a graph. However, for tasks such as graph reconstruction and generation, as well as graph classification tasks for which the edges are important for discrimination, accurately representing edges of a given graph is crucial to the success of the graph representation learning. To this end, we propose a novel edge representation learning framework based on Dual Hypergraph Transformation (DHT), which transforms the edges of a graph into the nodes of a hypergraph. This dual hypergraph construction allows us to apply message passing techniques for node representations to edges. After obtaining edge representations from the hypergraphs, we then cluster or drop edges to obtain holistic graph-level edge representations. We validate our edge representation learning method with hypergraphs on diverse graph datasets for graph representation and generation performance, on which our method largely outperforms existing graph representation learning methods. Moreover, our edge representation learning and pooling method also largely outperforms state-of-the-art graph pooling methods on graph classification, not only because of its accurate edge representation learning, but also due to its lossless compression of the nodes and removal of irrelevant edges for effective message passing.


翻译:图表神经网络最近在显示图表结构数据方面取得了显著的成功,在节点嵌入和图形集合方法方面都取得了迅速的进展。然而,它们大多侧重于从节点收集信息,考虑到它们的连接性,它们大多侧重于从节点收集信息,而在代表边缘方面没有做很多工作,而这些边缘是图表的基本组成部分。然而,对于诸如图形重建和生成等任务,以及那些边缘对区别很重要的图形分类任务,准确代表某一图表的边缘对于图形代表学习的成功至关重要。为此,我们提议了一个基于双超镜转换(DHT)的新颖的边缘代表学习框架,它将图表的边缘转变为高光谱节点。这一双面高光谱构造的构造使我们得以应用信息传递技术来显示边缘,而这些边框是图表的边缘构成和生成的边缘表现表。此外,我们在从图的边缘代表和下边框边框上获取全面的图表显示,我们用不透镜的图形代表和生成性表现来验证我们的边缘代表学习方法,我们采用的方法在很大程度上超越了现有的图表代表面的边边边边边边框学习方法,而只是我们为正平面的平面的平面缩缩缩化方法,因为我们的图表分析方法也是我们用来学习的边平平平面的边平面分析方法。

1
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
小样本学习(Few-shot Learning)综述
PaperWeekly
120+阅读 · 2019年4月1日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Representation Learning on Network 网络表示学习
全球人工智能
10+阅读 · 2017年10月19日
Arxiv
35+阅读 · 2020年1月2日
VIP会员
相关VIP内容
【图与几何深度学习】Graph and geometric deep learning,49页ppt
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
小样本学习(Few-shot Learning)综述
PaperWeekly
120+阅读 · 2019年4月1日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Representation Learning on Network 网络表示学习
全球人工智能
10+阅读 · 2017年10月19日
Top
微信扫码咨询专知VIP会员