【NeurIPS 2020】对图神经网络更切实的对抗式攻击

2020 年 11 月 5 日 专知


我们研究在一种新颖实际的设定下对图神经网络的黑盒攻击,我们限制攻击者只能获得部分节点的信息并且只能修改其中小部分的节点。在这样的设定下,如何选择节点变得愈发重要。我们证明图神经网络的结构归纳偏差能成为有效的黑盒攻击源头。具体来说,通过利用图神经网路的向后传播与随机游走之间的联系,我们表明基于梯度的常见白盒攻击可以通过梯度和与PageRank类似的重要性分数之间的联系而推广到黑盒攻击。在实践中,我们发现基于这个重要性分数上确实很大的程度地增加了损失值,但是不能显著提高分类错误的比率。我们的理论和经验分析表明,损失值和误分类率之间存在差异,即当受攻击的节点数增加时,后者会呈现递减的回报模式。因此,考虑到收益递减效应,我们提出了一种贪心算法来校正这一重要性得分。实验结果表明,所提出的选点程序在无需访问模型参数或预测的前提下可以显著提高常用数据集上常见GNN的误分类率。


https://arxiv.org/abs/2006.05057




专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“GNNA” 可以获取《【NeurIPS 2020】对图神经网络更切实的对抗式攻击》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
1

相关内容

AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
专知会员服务
24+阅读 · 2021年1月21日
专知会员服务
107+阅读 · 2020年12月21日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
80+阅读 · 2020年11月19日
[NeurIPS 2020]对图神经网络更实际的对抗式攻击
专知会员服务
8+阅读 · 2020年11月1日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
81+阅读 · 2020年6月9日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
最新《图理论》笔记书,98页pdf
专知
50+阅读 · 2020年12月27日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
【KDD2020】图神经网络生成式预训练
专知
21+阅读 · 2020年7月3日
When Do Curricula Work?
Arxiv
1+阅读 · 2021年1月28日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
3+阅读 · 2018年2月11日
VIP会员
相关VIP内容
AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
专知会员服务
24+阅读 · 2021年1月21日
专知会员服务
107+阅读 · 2020年12月21日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
80+阅读 · 2020年11月19日
[NeurIPS 2020]对图神经网络更实际的对抗式攻击
专知会员服务
8+阅读 · 2020年11月1日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
81+阅读 · 2020年6月9日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
相关论文
When Do Curricula Work?
Arxiv
1+阅读 · 2021年1月28日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
3+阅读 · 2018年2月11日
Top
微信扫码咨询专知VIP会员