Graph representation learning has attracted increasing research attention. However, most existing studies fuse all structural features and node attributes to provide an overarching view of graphs, neglecting finer substructures' semantics, and suffering from interpretation enigmas. This paper presents a novel hierarchical subgraph-level selection and embedding based graph neural network for graph classification, namely SUGAR, to learn more discriminative subgraph representations and respond in an explanatory way. SUGAR reconstructs a sketched graph by extracting striking subgraphs as the representative part of the original graph to reveal subgraph-level patterns. To adaptively select striking subgraphs without prior knowledge, we develop a reinforcement pooling mechanism, which improves the generalization ability of the model. To differentiate subgraph representations among graphs, we present a self-supervised mutual information mechanism to encourage subgraph embedding to be mindful of the global graph structural properties by maximizing their mutual information. Extensive experiments on six typical bioinformatics datasets demonstrate a significant and consistent improvement in model quality with competitive performance and interpretability.


翻译:然而,大多数现有研究结合了所有结构特征和节点属性,以提供图表的总体视图,忽略了精细子结构的语义学,并受到解释谜题的影响。本文件介绍了一个新的等级分层分层选择和嵌入基于图形的图形神经网络,以图解分类,即SUGAR,以学习更具歧视性的子图示,并以解释性的方式作出反应。SUGAR通过提取突出的子图解作为原始图表中揭示子图层的代表性部分,重新绘制了一张草图。在未经事先了解的情况下,我们为适应性地选择了突出的子图谱,我们开发了一个强化集合机制,提高了模型的一般化能力。为了区分图层之间的子图解,我们提出了一个自我监督的相互信息机制,鼓励子谱嵌入全球图形结构特性,最大限度地增加它们的相互信息。对六种典型的生物信息数据集进行了广泛的实验,表明模型质量有了显著和一致的改进,具有竞争性的性能和可解释性能。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
专知会员服务
88+阅读 · 2021年6月29日
专知会员服务
52+阅读 · 2021年6月14日
专知会员服务
118+阅读 · 2020年7月22日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Arxiv
3+阅读 · 2020年2月5日
Arxiv
13+阅读 · 2019年11月14日
VIP会员
相关VIP内容
专知会员服务
88+阅读 · 2021年6月29日
专知会员服务
52+阅读 · 2021年6月14日
专知会员服务
118+阅读 · 2020年7月22日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Top
微信扫码咨询专知VIP会员