Advanced methods of applying deep learning to structured data such as graphs have been proposed in recent years. In particular, studies have focused on generalizing convolutional neural networks to graph data, which includes redefining the convolution and the downsampling (pooling) operations for graphs. The method of generalizing the convolution operation to graphs has been proven to improve performance and is widely used. However, the method of applying downsampling to graphs is still difficult to perform and has room for improvement. In this paper, we propose a graph pooling method based on self-attention. Self-attention using graph convolution allows our pooling method to consider both node features and graph topology. To ensure a fair comparison, the same training procedures and model architectures were used for the existing pooling methods and our method. The experimental results demonstrate that our method achieves superior graph classification performance on the benchmark datasets using a reasonable number of parameters.


翻译:近些年来,人们提出了对图表等结构化数据应用深层次学习的先进方法,特别是,研究的重点是将进化神经网络普遍化,以图解数据,包括重新定义图表的进化和下抽样(合并)操作。将进化作业普遍化为图表的方法已证明提高了性能并被广泛使用。但是,对图表应用下游抽样的方法仍然难以实施,而且有改进的余地。在本文中,我们提出了一个基于自我注意的图形集合方法。使用图解组合的自学方法使我们的集合方法既考虑节点特征,又考虑图表表层学。为了确保进行公平的比较,对现有的集成方法和我们的方法采用了同样的培训程序和模型结构。实验结果表明,我们的方法在基准数据集上利用合理数量的参数实现了较高的图表分类性能。

13
下载
关闭预览

相关内容

近期必读的五篇KDD 2020【图神经网络 (GNN) 】相关论文_Part2
专知会员服务
158+阅读 · 2020年6月30日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
专知会员服务
59+阅读 · 2020年3月19日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
13+阅读 · 2019年11月14日
Arxiv
6+阅读 · 2019年4月8日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
11+阅读 · 2018年10月17日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关资讯
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
相关论文
Arxiv
13+阅读 · 2019年11月14日
Arxiv
6+阅读 · 2019年4月8日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
11+阅读 · 2018年10月17日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
10+阅读 · 2018年2月4日
Arxiv
7+阅读 · 2018年1月10日
Top
微信扫码咨询专知VIP会员