Deep Neural Networks (DNNs) are vulnerable to adversarial examples, which causes serious threats to security-critical applications. This motivated much research on providing mechanisms to make models more robust against adversarial attacks. Unfortunately, most of these defenses, such as gradient masking, are easily overcome through different attack means. In this paper, we propose MUTEN, a low-cost method to improve the success rate of well-known attacks against gradient-masking models. Our idea is to apply the attacks on an ensemble model which is built by mutating the original model elements after training. As we found out that mutant diversity is a key factor in improving success rate, we design a greedy algorithm for generating diverse mutants efficiently. Experimental results on MNIST, SVHN, and CIFAR10 show that MUTEN can increase the success rate of four attacks by up to 0.45.


翻译:深神经网络(DNNS)很容易受到对抗性的例子的伤害,这些例子对安全关键应用造成了严重威胁。这促使人们进行大量研究,研究提供机制,使模型对对抗性攻击更加强大。不幸的是,大多数这些防御,如梯度遮罩,很容易通过不同的攻击手段克服。在本论文中,我们建议采用低成本方法提高已知的对梯度模型的攻击成功率。我们的想法是,对由训练后变异原始模型元素所建立的组合模型进行攻击。我们发现变异体多样性是提高成功率的关键因素,我们设计了一种贪婪的算法,以便高效地产生不同的变异体。MWIS、SVHN和CIFAR10的实验结果显示,MIS、SVHN和CIFAR10的实验结果可以将四次攻击的成功率提高到0.45。

0
下载
关闭预览

相关内容

专知会员服务
44+阅读 · 2020年10月31日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Xgboost算法——Kaggle案例
R语言中文社区
13+阅读 · 2018年3月13日
算法|随机森林(Random Forest)
全球人工智能
3+阅读 · 2018年1月8日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
深度 | 从Boosting到Stacking,概览集成学习的方法与性能
深度学习世界
3+阅读 · 2017年8月28日
Arxiv
0+阅读 · 2021年11月16日
Arxiv
0+阅读 · 2021年11月16日
Arxiv
0+阅读 · 2021年11月16日
Arxiv
12+阅读 · 2020年12月10日
Adversarial Metric Attack for Person Re-identification
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
VIP会员
相关资讯
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Xgboost算法——Kaggle案例
R语言中文社区
13+阅读 · 2018年3月13日
算法|随机森林(Random Forest)
全球人工智能
3+阅读 · 2018年1月8日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
深度 | 从Boosting到Stacking,概览集成学习的方法与性能
深度学习世界
3+阅读 · 2017年8月28日
相关论文
Top
微信扫码咨询专知VIP会员