在一个持续的循环,在这个循环中,对对抗攻击更强的防御随后被更高级的防御感知攻击打破。我们提出了一种结束此循环的新方法,即通过使攻击者生成语义上类似于攻击目标类的输入来“转移”对抗攻击。为此,我们首先提出一种基于胶囊网络的更强大的防御,它结合了三种检测机制来实现对标准攻击和防御感知攻击的最新检测性能。然后,我们进行了一项人体研究,要求参与者对攻击产生的图像进行标记,结果表明,针对我们的防御系统的未检测到的攻击通常与对抗目标类相似。这些攻击图像不能再被称为“对抗性的”,因为我们的网络像人类一样对它们进行分类。

成为VIP会员查看完整内容
23

相关内容

近期必读的6篇顶会WWW2020【推荐系统】相关论文-Part3
专知会员服务
57+阅读 · 2020年4月14日
IJCAI 2019 提前看 | 神经网络后门攻击、对抗攻击
揭秘|多伦多大学反人脸识别,身份欺骗成功率达99.5%
机器人大讲堂
6+阅读 · 2018年6月9日
重磅!Geoffrey Hinton提出capsule 概念,推翻反向传播!
人工智能学家
7+阅读 · 2017年9月17日
【文章】深度神经网络中的对抗样本与学习7篇文章
GAN生成式对抗网络
6+阅读 · 2017年9月8日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Adversarial Metric Attack for Person Re-identification
Arxiv
4+阅读 · 2018年9月25日
VIP会员
相关主题
微信扫码咨询专知VIP会员