Fooling deep neural networks (DNNs) with the black-box optimization has become a popular adversarial attack fashion, as the structural prior knowledge of DNNs is always unknown. Nevertheless, recent black-box adversarial attacks may struggle to balance their attack ability and visual quality of the generated adversarial examples (AEs) in tackling high-resolution images. In this paper, we propose an attention-guided black-box adversarial attack based on the large-scale multiobjective evolutionary optimization, termed as LMOA. By considering the spatial semantic information of images, we firstly take advantage of the attention map to determine the perturbed pixels. Instead of attacking the entire image, reducing the perturbed pixels with the attention mechanism can help to avoid the notorious curse of dimensionality and thereby improves the performance of attacking. Secondly, a large-scale multiobjective evolutionary algorithm is employed to traverse the reduced pixels in the salient region. Benefiting from its characteristics, the generated AEs have the potential to fool target DNNs while being imperceptible by the human vision. Extensive experimental results have verified the effectiveness of the proposed LMOA on the ImageNet dataset. More importantly, it is more competitive to generate high-resolution AEs with better visual quality compared with the existing black-box adversarial attacks.


翻译:以黑盒优化方式愚弄深层神经网络(DNNs)已经成为一种流行的对抗性攻击方式,因为DNNs的结构性先前知识总是未知的。然而,最近的黑盒对抗性攻击可能难以在应对高分辨率图像时平衡其攻击能力与生成的对抗性例子(AEs)的视觉质量。在本文中,我们建议以大规模多目标进化优化(称为LMOA)为基础,进行引人注意的黑盒对抗性攻击。考虑到图像的空间语义信息,产生的AE有可能愚弄DNes,同时无法被人类的黑洞察到。广泛的实验结果不是攻击整个图像,而是将接合的螺旋像素与关注机制一起减少,这样可以帮助避免臭名化的对立面图像的诅咒,从而改善攻击的性能。第二,我们用大规模多目标进化算法来绕过显要区域的减少的像素。从它的特性中受益,产生的AE有可能欺骗DNFs,而同时又无法被黑洞察到黑镜像像象。广泛的实验结果比起来更具有更高的竞争性性,A-BMOA 与较具有更高的视觉质量。

0
下载
关闭预览

相关内容

在科学,计算和工程学中,黑盒是一种设备,系统或对象,可以根据其输入和输出(或传输特性)对其进行查看,而无需对其内部工作有任何了解。 它的实现是“不透明的”(黑色)。 几乎任何事物都可以被称为黑盒:晶体管,引擎,算法,人脑,机构或政府。为了使用典型的“黑匣子方法”来分析建模为开放系统的事物,仅考虑刺激/响应的行为,以推断(未知)盒子。 该黑匣子系统的通常表示形式是在该方框中居中的数据流程图。黑盒的对立面是一个内部组件或逻辑可用于检查的系统,通常将其称为白盒(有时也称为“透明盒”或“玻璃盒”)。
专知会员服务
27+阅读 · 2021年8月2日
专知会员服务
44+阅读 · 2020年10月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
已删除
将门创投
3+阅读 · 2018年8月21日
Arxiv
12+阅读 · 2020年12月10日
Arxiv
5+阅读 · 2020年10月22日
Adversarial Metric Attack for Person Re-identification
Arxiv
7+阅读 · 2018年6月8日
VIP会员
相关资讯
已删除
将门创投
3+阅读 · 2018年8月21日
Top
微信扫码咨询专知VIP会员