Data augmentation has been widely used to improve generalizability of machine learning models. However, comparatively little work studies data augmentation for graphs. This is largely due to the complex, non-Euclidean structure of graphs, which limits possible manipulation operations. Augmentation operations commonly used in vision and language have no analogs for graphs. Our work studies graph data augmentation for graph neural networks (GNNs) in the context of improving semi-supervised node-classification. We discuss practical and theoretical motivations, considerations and strategies for graph data augmentation. Our work shows that neural edge predictors can effectively encode class-homophilic structure to promote intra-class edges and demote inter-class edges in given graph structure, and our main contribution introduces the GAug graph data augmentation framework, which leverages these insights to improve performance in GNN-based node classification via edge prediction. Extensive experiments on multiple benchmarks show that augmentation via GAug improves performance across GNN architectures and datasets.


翻译:扩大数据已广泛用于改善机器学习模型的通用性。然而,相对较少的工作研究为图表而增加数据。这主要是因为图表结构复杂、非欧洲语言,限制了可能的操作操作。视觉和语言中常用的增强操作没有图形的模拟功能。我们的工作研究为图形神经网络(GNNs)改进半监督节点分类而增加的图形数据。我们讨论了增加图形数据的实际和理论动机、考虑和战略。我们的工作表明,神经边缘预测器可以有效地将等级-嗜血结构编码起来,在给定的图形结构中促进阶级边缘和显示阶级间边缘,我们的主要贡献介绍了GAug图形数据增强框架,该框架利用这些洞察来通过边缘预测改进基于GNN的节点分类的性能。关于多个基准的大规模实验表明,通过GAug增强能够改善GNN和数据集的性能。

38
下载
关闭预览

相关内容

数据增强在机器学习领域多指采用一些方法(比如数据蒸馏,正负样本均衡等)来提高模型数据集的质量,增强数据。
专知会员服务
107+阅读 · 2020年12月21日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Directed Acyclic Graph Neural Networks
Arxiv
0+阅读 · 2021年1月22日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
On Feature Normalization and Data Augmentation
Arxiv
14+阅读 · 2020年2月25日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
5+阅读 · 2019年9月25日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Arxiv
10+阅读 · 2019年2月19日
Arxiv
7+阅读 · 2018年8月21日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关资讯
相关论文
Directed Acyclic Graph Neural Networks
Arxiv
0+阅读 · 2021年1月22日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
On Feature Normalization and Data Augmentation
Arxiv
14+阅读 · 2020年2月25日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
5+阅读 · 2019年9月25日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Arxiv
10+阅读 · 2019年2月19日
Arxiv
7+阅读 · 2018年8月21日
Arxiv
7+阅读 · 2018年1月10日
Top
微信扫码咨询专知VIP会员