Machine learning models are critically susceptible to evasion attacks from adversarial examples. Generally, adversarial examples, modified inputs deceptively similar to the original input, are constructed under whitebox settings by adversaries with full access to the model. However, recent attacks have shown a remarkable reduction in query numbers to craft adversarial examples using blackbox attacks. Particularly, alarming is the ability to exploit the classification decision from the access interface of a trained model provided by a growing number of Machine Learning as a Service providers including Google, Microsoft, IBM and used by a plethora of applications incorporating these models. The ability of an adversary to exploit only the predicted label from a model to craft adversarial examples is distinguished as a decision-based attack. In our study, we first deep dive into recent state-of-the-art decision-based attacks in ICLR and SP to highlight the costly nature of discovering low distortion adversarial employing gradient estimation methods. We develop a robust query efficient attack capable of avoiding entrapment in a local minimum and misdirection from noisy gradients seen in gradient estimation methods. The attack method we propose, RamBoAttack, exploits the notion of Randomized Block Coordinate Descent to explore the hidden classifier manifold, targeting perturbations to manipulate only localized input features to address the issues of gradient estimation methods. Importantly, the RamBoAttack is more robust to the different sample inputs available to an adversary and the targeted class. Overall, for a given target class, RamBoAttack is demonstrated to be more robust at achieving a lower distortion within a given query budget. We curate our extensive results using the large-scale high-resolution ImageNet dataset and open-source our attack, test samples and artifacts on GitHub.


翻译:机器学习模式极易受到来自对抗性实例的攻击。 一般来说, 对抗性实例、 与原始输入相似的修改性投入, 是由对手在白箱设置下建造的, 并且完全可以使用该模型。 然而, 最近的攻击显示, 使用黑箱攻击, 利用黑箱攻击 来编造对抗性攻击 。 特别令人震惊的是, 能够利用由越来越多的机器学习机构作为服务供应商提供的经过训练的模型的准入界面作出的分类决定, 包括谷歌、 微软、 IBM 和大量应用包含这些模型的应用。 对手仅利用模型的预测标签标签来制作对抗性例子的能力被区别为基于决定的攻击。 在我们的研究中, 我们首先深入潜入最近最先进的基于黑箱攻击性攻击性攻击性的例子, 来突出使用梯度估计方法发现低扭曲性对抗性对抗性攻击性攻击性攻击性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定性决定

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【快讯】KDD2020论文出炉,216篇上榜, 你的paper中了吗?
专知会员服务
50+阅读 · 2020年5月16日
【新书】深度学习搜索,Deep Learning for Search,附327页pdf
专知会员服务
204+阅读 · 2020年1月13日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
计算机视觉最佳实践、代码示例和相关文档
专知会员服务
17+阅读 · 2019年10月9日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
最前沿的深度学习论文、架构及资源分享
深度学习与NLP
13+阅读 · 2018年1月25日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Arxiv
0+阅读 · 2022年2月10日
Arxiv
7+阅读 · 2020年8月7日
VIP会员
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
最前沿的深度学习论文、架构及资源分享
深度学习与NLP
13+阅读 · 2018年1月25日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Top
微信扫码咨询专知VIP会员