3D point clouds play pivotal roles in various safety-critical applications, such as autonomous driving, which desires the underlying deep neural networks to be robust to adversarial perturbations. Though a few defenses against adversarial point cloud classification have been proposed, it remains unknown whether they are truly robust to adaptive attacks. To this end, we perform the first security analysis of state-of-the-art defenses and design adaptive evaluations on them. Our 100% adaptive attack success rates show that current countermeasures are still vulnerable. Since adversarial training (AT) is believed as the most robust defense, we present the first in-depth study showing how AT behaves in point cloud classification and identify that the required symmetric function (pooling operation) is paramount to the 3D model's robustness under AT. Through our systematic analysis, we find that the default-used fixed pooling (e.g., MAX pooling) generally weakens AT's effectiveness in point cloud classification. Interestingly, we further discover that sorting-based parametric pooling can significantly improve the models' robustness. Based on above insights, we propose DeepSym, a deep symmetric pooling operation, to architecturally advance the robustness to 47.0% under AT without sacrificing nominal accuracy, outperforming the original design and a strong baseline by 28.5% ($\sim 2.6 \times$) and 6.5%, respectively, in PointNet.


翻译:3D点云在各种安全关键应用中发挥着关键作用, 比如, 自主驱动, 它希望深深神经网络能够强大到对抗性扰动。 虽然已经提出了一些对抗性点云的防守, 但仍不清楚它们是否真正对适应性攻击具有抗争性。 为此, 我们对最先进的防御进行第一次安全分析, 并设计适应性评估。 我们100%的适应性攻击成功率表明, 当前的对策仍然很脆弱。 由于认为对抗性训练( AT) 是最有力的防御, 我们第一次深入研究显示 AT 如何在点云分类中表现, 并确定所需的对称功能( 集合操作) 对AT 3D 模式的强性至关重要。 我们通过系统分析发现, 默认使用的固定集合( 例如, MAX 集合) 通常会削弱AT 在点云分类中的有效性 。 有趣的是, 我们进一步发现, 以分类为基础的对准性集合可以大大改进模型的坚固性。 基于以上洞察力, 我们建议 深SymallSySy, 和28 初步的精确性模型运行, 255, 在初始性设计性基准下, 255 的精确性基准下, 基础, 基础, 基础, 基础化的精确性, 基础, 和精确性, 基础, 基础, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础设计性, 基础性, 基础, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性, 基础性,

0
下载
关闭预览

相关内容

专知会员服务
140+阅读 · 2021年3月17日
专知会员服务
44+阅读 · 2020年10月31日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年5月31日
3D Adversarial Attacks Beyond Point Cloud
Arxiv
0+阅读 · 2021年5月31日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
VIP会员
相关资讯
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员