Evaluating adversarial robustness amounts to finding the minimum perturbation needed to have an input sample misclassified. The inherent complexity of the underlying optimization requires current gradient-based attacks to be carefully tuned, initialized, and possibly executed for many computationally-demanding iterations, even if specialized to a given perturbation model. In this work, we overcome these limitations by proposing a fast minimum-norm (FMN) attack that works with different $\ell_p$-norm perturbation models ($p=0, 1, 2, \infty$), is robust to hyperparameter choices, does not require adversarial starting points, and converges within few lightweight steps. It works by iteratively finding the sample misclassified with maximum confidence within an $\ell_p$-norm constraint of size $\epsilon$, while adapting $\epsilon$ to minimize the distance of the current sample to the decision boundary. Extensive experiments show that FMN significantly outperforms existing attacks in terms of convergence speed and computation time, while reporting comparable or even smaller perturbation sizes.


翻译:在这项工作中,我们克服了这些限制,提出了快速最低调(FMN)攻击,该攻击以不同的美元=0, 1, 2, ninfty美元操作,对超参数选择十分可靠,不需要对抗性起点,也不需要少数轻量级步骤,而是需要仔细调整、初始化当前基于梯度的攻击,并可能对许多计算性需要的迭代执行,即使专门针对特定扰动模式。在这项工作中,我们提出了快速最小调控(FMN)攻击,用不同的美元=_p$-norm perturbation 模型操作($=0, 1, 2,\infty$),从而克服了这些限制。广泛的实验表明,FMN在趋同速度和计算时间方面大大超过现有的攻击,同时报告可比较或更小的半调幅大小。

0
下载
关闭预览

相关内容

FAST:Conference on File and Storage Technologies。 Explanation:文件和存储技术会议。 Publisher:USENIX。 SIT:http://dblp.uni-trier.de/db/conf/fast/
专知会员服务
44+阅读 · 2020年10月31日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
已删除
将门创投
8+阅读 · 2019年3月18日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Arxiv
0+阅读 · 2021年7月27日
Arxiv
0+阅读 · 2021年7月24日
Arxiv
0+阅读 · 2021年7月22日
Arxiv
6+阅读 · 2021年6月24日
Arxiv
12+阅读 · 2020年12月10日
Weight Poisoning Attacks on Pre-trained Models
Arxiv
5+阅读 · 2020年4月14日
VIP会员
相关资讯
已删除
将门创投
8+阅读 · 2019年3月18日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
相关论文
Arxiv
0+阅读 · 2021年7月27日
Arxiv
0+阅读 · 2021年7月24日
Arxiv
0+阅读 · 2021年7月22日
Arxiv
6+阅读 · 2021年6月24日
Arxiv
12+阅读 · 2020年12月10日
Weight Poisoning Attacks on Pre-trained Models
Arxiv
5+阅读 · 2020年4月14日
Top
微信扫码咨询专知VIP会员