High-level representation-guided pixel denoising and adversarial training are independent solutions to enhance the robustness of CNNs against adversarial attacks by pre-processing input data and re-training models, respectively. Most recently, adversarial training techniques have been widely studied and improved while the pixel denoising-based method is getting less attractive. However, it is still questionable whether there exists a more advanced pixel denoising-based method and whether the combination of the two solutions benefits each other. To this end, we first comprehensively investigate two kinds of pixel denoising methods for adversarial robustness enhancement (i.e., existing additive-based and unexplored filtering-based methods) under the loss functions of image-level and semantic-level, respectively, showing that pixel-wise filtering can obtain much higher image quality (e.g., higher PSNR) as well as higher robustness (e.g., higher accuracy on adversarial examples) than existing pixel-wise additive-based method. However, we also observe that the robustness results of the filtering-based method rely on the perturbation amplitude of adversarial examples used for training. To address this problem, we propose predictive perturbation-aware & pixel-wise filtering}, where dual-perturbation filtering and an uncertainty-aware fusion module are designed and employed to automatically perceive the perturbation amplitude during the training and testing process. The method is termed as AdvFilter. Moreover, we combine adversarial pixel denoising methods with three adversarial training-based methods, hinting that considering data and models jointly is able to achieve more robust CNNs. The experiments conduct on NeurIPS-2017DEV, SVHN and CIFAR10 datasets and show advantages over enhancing CNNs' robustness, high generalization to different models and noise levels.


翻译:高级代表制像素导像素分解法和对抗性培训是独立的解决办法,可分别通过预处理输入数据和再培训模型,加强CNN对对抗性攻击的稳健性。最近,对对抗性培训技术进行了广泛的研究和改进,而以像素分解法为基础的比像素分解法则越来越不那么有吸引力。然而,仍然令人怀疑的是,是否存在一种更先进的像素分解法,以及两种解决方案的结合是否相互有益。为此,我们首先全面调查两种在图像级别和语义分解法的丧失功能下,对对抗性强力增强的像素分解方法(即现有基于添加剂的过滤法和未开发的过滤法)的稳健性方法(即现有的基于添加剂的过滤法和基于过滤法的过滤法),这表明,以像素分解法的过滤法过滤法可以提高图像质量(e.g.,更高的PSNRR),以及较强的(e.g.,更精确性的对抗性)比现有的Pix-V-VIL-S-S-ad-ad-ad-advial-adview-adview-adview-deview-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-view-viewd-d-d-d-viewd-vication-view-view-d-vial-d-vial-vial-d-vial-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod-mod

0
下载
关闭预览

相关内容

专知会员服务
15+阅读 · 2021年8月13日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
将门创投
3+阅读 · 2018年8月21日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年12月6日
Arxiv
0+阅读 · 2021年12月6日
Arxiv
5+阅读 · 2020年10月22日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
VIP会员
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
将门创投
3+阅读 · 2018年8月21日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员