原文地址:https://arxiv.org/abs/2006.05057

我们研究在一种新颖实际的设定下对图神经网络的黑盒攻击,我们限制攻击者只能获得部分节点的信息并且只能修改其中小部分的节点。在这样的设定下,如何选择节点变得愈发重要。我们证明图神经网络的结构归纳偏差能成为有效的黑盒攻击源头。具体来说,通过利用图神经网路的向后传播与随机游走之间的联系,我们表明基于梯度的常见白盒攻击可以通过梯度和与PageRank类似的重要性分数之间的联系而推广到黑盒攻击。在实践中,我们发现基于这个重要性分数上确实很大的程度地增加了损失值,但是不能显著提高分类错误的比率。我们的理论和经验分析表明,损失值和误分类率之间存在差异,即当受攻击的节点数增加时,后者会呈现递减的回报模式。因此,考虑到收益递减效应,我们提出了一种贪心算法来校正这一重要性得分。实验结果表明,所提出的选点程序在无需访问模型参数或预测的前提下可以显著提高常用数据集上常见GNN的误分类率。

成为VIP会员查看完整内容
8

相关内容

专知会员服务
37+阅读 · 2020年11月24日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
82+阅读 · 2020年11月19日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
【NeurIPS 2020】对图神经网络更切实的对抗式攻击
专知会员服务
23+阅读 · 2020年11月5日
【NeurIPS 2020】通过双向传播的可扩展图神经网络
专知会员服务
27+阅读 · 2020年11月3日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
“出奇制胜”的“欺骗防御”之术
E安全
7+阅读 · 2019年7月6日
KDD 18 & AAAI 19 | 异构信息网络表示学习论文解读
PaperWeekly
21+阅读 · 2019年2月25日
自定义损失函数Gradient Boosting
AI研习社
13+阅读 · 2018年10月16日
Arxiv
0+阅读 · 2020年11月26日
Arxiv
7+阅读 · 2019年5月31日
Arxiv
24+阅读 · 2018年10月24日
VIP会员
相关主题
相关VIP内容
专知会员服务
37+阅读 · 2020年11月24日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
82+阅读 · 2020年11月19日
【WSDM2021】拓扑去噪的鲁棒图神经网络
专知会员服务
26+阅读 · 2020年11月14日
【NeurIPS 2020】对图神经网络更切实的对抗式攻击
专知会员服务
23+阅读 · 2020年11月5日
【NeurIPS 2020】通过双向传播的可扩展图神经网络
专知会员服务
27+阅读 · 2020年11月3日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
微信扫码咨询专知VIP会员