This paper introduces stochastic sparse adversarial attacks (SSAA), simple, fast and purely noise-based targeted and untargeted $L_0$ attacks of neural network classifiers (NNC). SSAA are devised by exploiting a simple small-time expansion idea widely used for Markov processes and offer new examples of $L_0$ attacks whose studies have been limited. They are designed to solve the known scalability issue of the family of Jacobian-based saliency maps attacks to large datasets and they succeed in solving it. Experiments on small and large datasets (CIFAR-10 and ImageNet) illustrate further advantages of SSAA in comparison with the-state-of-the-art methods. For instance, in the untargeted case, our method called Voting Folded Gaussian Attack (VFGA) scales efficiently to ImageNet and achieves a significantly lower $L_0$ score than SparseFool (up to $\frac{2}{5}$ lower) while being faster. Moreover, VFGA achieves better $L_0$ scores on ImageNet than Sparse-RS when both attacks are fully successful on a large number of samples. Codes are publicly available through the link https://github.com/SSAA3/stochastic-sparse-adv-attacks


翻译:本文介绍了简单、快速和纯粹的以噪音为对象和不针对目标的神经网络分类器(NNC)攻击(SSAA)的简单零星的对抗性攻击(SSAA)、简单、快速和纯粹的以噪音为对象和无目标的以0.0美元为对象的攻击(SSAA)。 SSAA的设计方法是利用一个在Markov工艺中广泛使用的简单小时间扩大概念,并提供了研究范围有限的以0.0美元为单位的攻击新例子,目的是解决已知的以Jacobian为基地的突出地图攻击家庭对大型数据集的可缩放性问题,并成功地解决了这些攻击。此外,对小型和大型数据集(CIFAR-10和图像网)的实验(CIFAR-10和图像网)显示了SSAA在与艺术状态方法相比的进一步优势。例如,在非目标情况下,我们称为FGO Fold Gaussian攻击(VFGA) 规模的投票方法,其价值大大低于SARFO(最高值为$_0美元),同时在图像网络上比SMA-SAA/SAAsqual compeal 之间的大代码中,它们都是成功的。

0
下载
关闭预览

相关内容

ImageNet项目是一个用于视觉对象识别软件研究的大型可视化数据库。超过1400万的图像URL被ImageNet手动注释,以指示图片中的对象;在至少一百万个图像中,还提供了边界框。ImageNet包含2万多个类别; [2]一个典型的类别,如“气球”或“草莓”,包含数百个图像。第三方图像URL的注释数据库可以直接从ImageNet免费获得;但是,实际的图像不属于ImageNet。自2010年以来,ImageNet项目每年举办一次软件比赛,即ImageNet大规模视觉识别挑战赛(ILSVRC),软件程序竞相正确分类检测物体和场景。 ImageNet挑战使用了一个“修剪”的1000个非重叠类的列表。2012年在解决ImageNet挑战方面取得了巨大的突破,被广泛认为是2010年的深度学习革命的开始。
专知会员服务
49+阅读 · 2021年7月10日
【AAAI2021】组合对抗攻击
专知会员服务
47+阅读 · 2021年2月17日
专知会员服务
24+阅读 · 2021年1月21日
专知会员服务
44+阅读 · 2020年10月31日
IJCAI2020接受论文列表,592篇论文pdf都在这了!
专知会员服务
63+阅读 · 2020年7月16日
ICLR2019 图上的对抗攻击
图与推荐
17+阅读 · 2020年3月15日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
万字综述之生成对抗网络(GAN)
PaperWeekly
43+阅读 · 2019年3月19日
GAN 生成对抗网络论文阅读路线图
GAN生成式对抗网络
27+阅读 · 2018年10月30日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
stackGAN通过文字描述生成图片的V2项目
CreateAMind
3+阅读 · 2018年1月1日
ICCV17 :12为顶级大牛教你学生成对抗网络(GAN)!
全球人工智能
8+阅读 · 2017年11月26日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年9月23日
Arxiv
12+阅读 · 2020年12月10日
Weight Poisoning Attacks on Pre-trained Models
Arxiv
5+阅读 · 2020年4月14日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
7+阅读 · 2018年6月8日
VIP会员
相关VIP内容
专知会员服务
49+阅读 · 2021年7月10日
【AAAI2021】组合对抗攻击
专知会员服务
47+阅读 · 2021年2月17日
专知会员服务
24+阅读 · 2021年1月21日
专知会员服务
44+阅读 · 2020年10月31日
IJCAI2020接受论文列表,592篇论文pdf都在这了!
专知会员服务
63+阅读 · 2020年7月16日
相关资讯
ICLR2019 图上的对抗攻击
图与推荐
17+阅读 · 2020年3月15日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
万字综述之生成对抗网络(GAN)
PaperWeekly
43+阅读 · 2019年3月19日
GAN 生成对抗网络论文阅读路线图
GAN生成式对抗网络
27+阅读 · 2018年10月30日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
stackGAN通过文字描述生成图片的V2项目
CreateAMind
3+阅读 · 2018年1月1日
ICCV17 :12为顶级大牛教你学生成对抗网络(GAN)!
全球人工智能
8+阅读 · 2017年11月26日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2021年9月23日
Arxiv
12+阅读 · 2020年12月10日
Weight Poisoning Attacks on Pre-trained Models
Arxiv
5+阅读 · 2020年4月14日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
7+阅读 · 2018年6月8日
Top
微信扫码咨询专知VIP会员