我们研究在一种新颖实际的设定下对图神经网络的黑盒攻击,我们限制攻击者只能获得部分节点的信息并且只能修改其中小部分的节点。在这样的设定下,如何选择节点变得愈发重要。我们证明图神经网络的结构归纳偏差能成为有效的黑盒攻击源头。具体来说,通过利用图神经网路的向后传播与随机游走之间的联系,我们表明基于梯度的常见白盒攻击可以通过梯度和与PageRank类似的重要性分数之间的联系而推广到黑盒攻击。在实践中,我们发现基于这个重要性分数上确实很大的程度地增加了损失值,但是不能显著提高分类错误的比率。我们的理论和经验分析表明,损失值和误分类率之间存在差异,即当受攻击的节点数增加时,后者会呈现递减的回报模式。因此,考虑到收益递减效应,我们提出了一种贪心算法来校正这一重要性得分。实验结果表明,所提出的选点程序在无需访问模型参数或预测的前提下可以显著提高常用数据集上常见GNN的误分类率。

https://arxiv.org/abs/2006.05057

成为VIP会员查看完整内容
23

相关内容

图神经网络 (GNN) 是一种连接模型,它通过图的节点之间的消息传递来捕捉图的依赖关系。与标准神经网络不同的是,图神经网络保留了一种状态,可以表示来自其邻域的具有任意深度的信息。近年来,图神经网络(GNN)在社交网络、知识图、推荐系统、问答系统甚至生命科学等各个领域得到了越来越广泛的应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
27+阅读 · 2020年12月15日
专知会员服务
18+阅读 · 2020年12月9日
专知会员服务
37+阅读 · 2020年11月24日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
79+阅读 · 2020年11月19日
[NeurIPS 2020]对图神经网络更实际的对抗式攻击
专知会员服务
8+阅读 · 2020年11月1日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
146+阅读 · 2020年6月28日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
NeurIPS 2019 开源论文 | 万能的GNN解释器
图与推荐
6+阅读 · 2020年5月17日
ICLR2019 图上的对抗攻击
图与推荐
17+阅读 · 2020年3月15日
“出奇制胜”的“欺骗防御”之术
E安全
7+阅读 · 2019年7月6日
虚拟对抗训练:一种新颖的半监督学习正则化方法
人工智能前沿讲习班
8+阅读 · 2019年6月9日
Arxiv
0+阅读 · 2020年12月15日
Arxiv
1+阅读 · 2020年12月14日
Molecular graph generation with Graph Neural Networks
Arxiv
0+阅读 · 2020年12月14日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
5+阅读 · 2019年6月5日
Arxiv
4+阅读 · 2018年4月17日
VIP会员
相关VIP内容
专知会员服务
27+阅读 · 2020年12月15日
专知会员服务
18+阅读 · 2020年12月9日
专知会员服务
37+阅读 · 2020年11月24日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
79+阅读 · 2020年11月19日
[NeurIPS 2020]对图神经网络更实际的对抗式攻击
专知会员服务
8+阅读 · 2020年11月1日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
146+阅读 · 2020年6月28日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
相关资讯
相关论文
微信扫码咨询专知VIP会员