Graph classification is practically important in many domains. To solve this problem, one usually calculates a low-dimensional representation for each node in the graph with supervised or unsupervised approaches. Most existing approaches consider all the edges between nodes while overlooking whether the edge will brings positive or negative influence to the node representation learning. In many real-world applications, however, some connections among the nodes can be noisy for graph convolution, and not all the edges deserve your attention. In this work, we distinguish the positive and negative impacts of the neighbors to the node in graph node classification, and propose to enhance the graph convolutional network by considering the labels between the neighbor edges. We present a novel GCN framework, called Label-aware Graph Convolutional Network (LAGCN), which incorporates the supervised and unsupervised learning by introducing the edge label predictor. As a general model, LAGCN can be easily adapted in various previous GCN and enhance their performance with some theoretical guarantees. Experimental results on multiple real-world datasets show that LAGCN is competitive against various state-of-the-art methods in graph classification.


翻译:在许多领域, 图表分类实际上很重要 。 为了解决这个问题, 人们通常会用监督或不受监督的方法来计算图中每个节点的低维代表度。 大多数现有方法会考虑节点之间的所有边, 忽略节点的边际会给节点代表学习带来正面或负面的影响 。 但是, 在许多现实世界应用中, 节点之间的某些连接会为图形相投而吵闹, 而不是所有的边点都值得你注意 。 在这项工作中, 我们区分图节点分类中邻居对节点的正负影响, 并提议通过考虑相邻边缘之间的标签来增强图动网络 。 我们提出了一个新型的GCN 框架, 称为 Label-aware 图形相动网络( LAGCN ), 它将通过引入边缘标签预测器来整合受监督和不受监督的学习 。 作为一般模型, LAGCN 很容易在以前的多个GCN 中进行调整, 并用一些理论保证来提高它们的性能 。 在多个真实世界数据集上的实验结果显示, LAGCN 与图形分类中的各种状态方法具有竞争力 。

7
下载
关闭预览

相关内容

【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
155+阅读 · 2020年5月26日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
人工智能 | CCF推荐期刊专刊约稿信息6条
Call4Papers
5+阅读 · 2019年2月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Arxiv
6+阅读 · 2019年9月25日
Signed Graph Attention Networks
Arxiv
7+阅读 · 2019年9月5日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
10+阅读 · 2019年2月19日
Arxiv
9+阅读 · 2018年10月18日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关资讯
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
人工智能 | CCF推荐期刊专刊约稿信息6条
Call4Papers
5+阅读 · 2019年2月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
相关论文
Arxiv
6+阅读 · 2019年9月25日
Signed Graph Attention Networks
Arxiv
7+阅读 · 2019年9月5日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
10+阅读 · 2019年2月19日
Arxiv
9+阅读 · 2018年10月18日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
10+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员