【NeurIPS2020】可靠图神经网络鲁棒聚合

2020 年 11 月 6 日 专知


以图结构为目标的扰动已被证明在降低图神经网络(GNNs)性能方面非常有效,而传统的防御手段如对抗性训练似乎不能提高鲁棒性。这项工作的动机是观察到,反向注入的边缘有效地可以视为一个节点的邻域聚集函数的额外样本,这导致扭曲的聚集在层上累积。传统的GNN聚合函数,如总和或平均值,可以被一个单独的离群值任意扭曲。在鲁棒统计领域的启发下,我们提出了一个鲁棒聚合函数。我们的方法显示了0.5的最大可能分解点,这意味着只要节点的对抗边的比例小于50\%,聚合的偏差就有界。我们的新聚合函数,软Medoid,是Medoid的一个完全可微的泛化,因此很适合端到端深度学习。在Cora ML上配置聚合的GNN,可将结构扰动的鲁棒性提高3倍(Citeseer上提高5.5倍),对于低度节点,可提高8倍。


https://www.zhuanzhi.ai/paper/bfaf03d61ecd8da51a764adfcffbc173



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“GNNRA” 可以获取《【NeurIPS2020】可靠图神经网络鲁棒聚合》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

专知会员服务
37+阅读 · 2020年11月24日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
82+阅读 · 2020年11月19日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
最新【图神经网络计算】2020综述论文,23页PDF
专知会员服务
192+阅读 · 2020年10月3日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
45+阅读 · 2020年9月28日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
39+阅读 · 2020年9月27日
最新《图理论》笔记书,98页pdf
专知
51+阅读 · 2020年12月27日
【KDD2020】动态知识图谱的多事件预测
专知
88+阅读 · 2020年8月31日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
Arxiv
0+阅读 · 2021年1月24日
Arxiv
27+阅读 · 2020年6月19日
Simplifying Graph Convolutional Networks
Arxiv
7+阅读 · 2019年6月20日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Arxiv
3+阅读 · 2018年10月25日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关VIP内容
专知会员服务
37+阅读 · 2020年11月24日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
82+阅读 · 2020年11月19日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
最新【图神经网络计算】2020综述论文,23页PDF
专知会员服务
192+阅读 · 2020年10月3日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
45+阅读 · 2020年9月28日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
39+阅读 · 2020年9月27日
相关论文
Arxiv
0+阅读 · 2021年1月24日
Arxiv
27+阅读 · 2020年6月19日
Simplifying Graph Convolutional Networks
Arxiv
7+阅读 · 2019年6月20日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Arxiv
3+阅读 · 2018年10月25日
Arxiv
10+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员