以图结构为目标的扰动已被证明在降低图神经网络(GNNs)性能方面非常有效,而传统的防御手段如对抗性训练似乎不能提高鲁棒性。这项工作的动机是观察到,反向注入的边缘有效地可以视为一个节点的邻域聚集函数的额外样本,这导致扭曲的聚集在层上累积。传统的GNN聚合函数,如总和或平均值,可以被一个单独的离群值任意扭曲。在鲁棒统计领域的启发下,我们提出了一个鲁棒聚合函数。我们的方法显示了0.5的最大可能分解点,这意味着只要节点的对抗边的比例小于50%,聚合的偏差就有界。我们的新聚合函数,软Medoid,是Medoid的一个完全可微的泛化,因此很适合端到端深度学习。在Cora ML上配置聚合的GNN,可将结构扰动的鲁棒性提高3倍(Citeseer上提高5.5倍),对于低度节点,可提高8倍。

成为VIP会员查看完整内容
19

相关内容

图神经网络 (GNN) 是一种连接模型,它通过图的节点之间的消息传递来捕捉图的依赖关系。与标准神经网络不同的是,图神经网络保留了一种状态,可以表示来自其邻域的具有任意深度的信息。近年来,图神经网络(GNN)在社交网络、知识图、推荐系统、问答系统甚至生命科学等各个领域得到了越来越广泛的应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【NeurIPS2020】因果推断学习教程,70页ppt
专知会员服务
189+阅读 · 2020年12月12日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
45+阅读 · 2020年9月28日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
39+阅读 · 2020年9月27日
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
Arxiv
0+阅读 · 2020年12月15日
Arxiv
27+阅读 · 2020年6月19日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Arxiv
92+阅读 · 2020年2月28日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关VIP内容
【NeurIPS2020】因果推断学习教程,70页ppt
专知会员服务
189+阅读 · 2020年12月12日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
45+阅读 · 2020年9月28日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
39+阅读 · 2020年9月27日
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
相关论文
Arxiv
0+阅读 · 2020年12月15日
Arxiv
27+阅读 · 2020年6月19日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Arxiv
92+阅读 · 2020年2月28日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
10+阅读 · 2018年2月4日
微信扫码咨询专知VIP会员