Graph Neural Networks (GNNs) have achieved great success among various domains. Nevertheless, most GNN methods are sensitive to the quality of graph structures. To tackle this problem, some studies exploit different graph structure learning strategies to refine the original graph structure. However, these methods only consider feature information while ignoring available label information. In this paper, we propose a novel label-informed graph structure learning framework which incorporates label information explicitly through a class transition matrix. We conduct extensive experiments on seven node classification benchmark datasets and the results show that our method outperforms or matches the state-of-the-art baselines.


翻译:神经网络图(GNNs)在不同领域取得了巨大成功,然而,大多数GNN方法都对图形结构的质量十分敏感。为解决这一问题,一些研究利用不同的图形结构学习战略来完善原始图形结构。然而,这些方法只考虑特征信息,而忽略现有的标签信息。在本文中,我们提出一个新的标签知情图形结构学习框架,通过等级转换矩阵明确纳入标签信息。我们在七个节点分类基准数据集上进行了广泛的实验,结果显示我们的方法优于或符合最先进的基线。

0
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
图节点嵌入(Node Embeddings)概述,9页pdf
专知会员服务
36+阅读 · 2020年8月22日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
9+阅读 · 2017年10月17日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
13+阅读 · 2019年11月14日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
12+阅读 · 2018年9月15日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
9+阅读 · 2017年10月17日
Top
微信扫码咨询专知VIP会员