As machine learning (ML) systems become pervasive, safeguarding their security is critical. However, recently it has been demonstrated that motivated adversaries are able to mislead ML systems by perturbing test data using semantic transformations. While there exists a rich body of research providing provable robustness guarantees for ML models against $\ell_p$ norm bounded adversarial perturbations, guarantees against semantic perturbations remain largely underexplored. In this paper, we provide TSS -- a unified framework for certifying ML robustness against general adversarial semantic transformations. First, depending on the properties of each transformation, we divide common transformations into two categories, namely resolvable (e.g., Gaussian blur) and differentially resolvable (e.g., rotation) transformations. For the former, we propose transformation-specific randomized smoothing strategies and obtain strong robustness certification. The latter category covers transformations that involve interpolation errors, and we propose a novel approach based on stratified sampling to certify the robustness. Our framework TSS leverages these certification strategies and combines with consistency-enhanced training to provide rigorous certification of robustness. We conduct extensive experiments on over ten types of challenging semantic transformations and show that TSS significantly outperforms the state of the art. Moreover, to the best of our knowledge, TSS is the first approach that achieves nontrivial certified robustness on the large-scale ImageNet dataset. For instance, our framework achieves 30.4% certified robust accuracy against rotation attack (within $\pm 30^\circ$) on ImageNet. Moreover, to consider a broader range of transformations, we show TSS is also robust against adaptive attacks and unforeseen image corruptions such as CIFAR-10-C and ImageNet-C.


翻译:随着机器学习(ML)系统变得十分普遍,保障其安全至关重要。然而,最近已经证明,有动机的对手能够通过使用语义变换来干扰测试数据,从而误导ML系统。虽然存在大量研究,为ML模型提供了可辨别的稳健性保障,对抗$\ell_p$规范约束的对立干扰,但针对静脉冲扰动的保证仍然基本不足。在本文中,我们提供了TSS -- -- 一个用于证明ML稳健性以对抗一般对抗性对立词语义变换的统一框架。首先,根据每次变换的特性,我们将共同的图像变异性分为两类,即可解(例如,高斯模糊)和差异性变异性变异性变异性(例如,旋转性变异性变异性)。对于前一,我们提出了针对具体变异性变异性变异性变异性变异性变异性变异性战略并获得强性认证。后,我们提出了一种针对内向性变异性变异性变变异性变异性的方法,我们首次提出了一种新的方法,以验证大变异性变异性变异性变现。我们TSS的TSS框架在快速变异性变异性变异性变异性变异性变异性变变异性变变变变变变变变变异性变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变的T,我们性变的T,我们,我们性变变变变变变变变变变变变变变变变变变变变变变变变变变的TF,我们的模型的TF的模型的模型的TSSSSSSSSSSF的模型的模型的模型的模型的模型的模型的模型(我们的架构的架构的架构的架构的架构的系统,我们的模型的模型的模型的模型的架构的模型的模型的模型在的变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变变

0
下载
关闭预览

相关内容

专知会员服务
22+阅读 · 2021年4月10日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
106+阅读 · 2020年6月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】视觉惯性里程计的信息稀疏化(IROS-2018)
泡泡机器人SLAM
9+阅读 · 2018年12月31日
已删除
将门创投
3+阅读 · 2018年3月13日
BranchOut: Regularization for Online Ensemble Tracking with CNN
统计学习与视觉计算组
9+阅读 · 2017年10月7日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
7+阅读 · 2021年7月5日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
VIP会员
相关资讯
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】视觉惯性里程计的信息稀疏化(IROS-2018)
泡泡机器人SLAM
9+阅读 · 2018年12月31日
已删除
将门创投
3+阅读 · 2018年3月13日
BranchOut: Regularization for Online Ensemble Tracking with CNN
统计学习与视觉计算组
9+阅读 · 2017年10月7日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员