3D point clouds play pivotal roles in various safety-critical fields, such as autonomous driving, which desires the corresponding deep neural networks to be robust to adversarial perturbations. Though a few defenses against adversarial point cloud classification have been proposed, it remains unknown whether they can provide real robustness. To this end, we perform the first security analysis of state-of-the-art defenses and design adaptive attacks on them. Our 100% adaptive attack success rates demonstrate that current defense designs are still vulnerable. Since adversarial training (AT) is believed to be the most effective defense, we present the first in-depth study showing how AT behaves in point cloud classification and identify that the required symmetric function (pooling operation) is paramount to the model's robustness under AT. Through our systematic analysis, we find that the default used fixed pooling operations (e.g., MAX pooling) generally weaken AT's performance in point cloud classification. Still, sorting-based parametric pooling operations can significantly improve the models' robustness. Based on the above insights, we further propose DeepSym, a deep symmetric pooling operation, to architecturally advance the adversarial robustness under AT to 47.0% without sacrificing nominal accuracy, outperforming the original design and a strong baseline by 28.5% ($\sim 2.6 \times$) and 6.5%, respectively, in PointNet.


翻译:3D点云在各种安全关键领域发挥着关键作用, 比如自动驾驶, 它希望相应的深神经网络能够稳健到对抗性扰动。 虽然已经提出了一些对抗性点云的防守, 但仍不清楚它们能否提供真正的坚固性。 为此, 我们对最先进的防御进行第一次安全分析, 并设计适应性攻击, 我们100%的适应性攻击成功率都表明当前的防御设计仍然脆弱。 由于据认为对抗性训练( AT) 是最有效的防御, 我们首次提出深入研究, 显示AT在点云分类中的行为, 并查明所需的对称功能( 合并操作) 是否对AT 下的模型的坚固性至关重要。 我们通过系统分析发现, 默认使用固定的集合操作( 如 MAX 集合) 总体上削弱了AT 在点云分类中的性。 然而, 以排序为基础的对等式集合操作可以大大改善模型的坚固性。 基于上述的洞察, 我们进一步提议, 深Symall $, 深度的对称性功能性功能功能( 集合操作) 在初始设计中, 28ADRimalimimimimimimimimimalimalim 10的精确度下, 。

0
下载
关闭预览

相关内容

专知会员服务
44+阅读 · 2020年10月31日
【Twitter】时序图神经网络
专知会员服务
92+阅读 · 2020年10月15日
3D目标检测进展综述
专知会员服务
188+阅读 · 2020年4月24日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年1月9日
Robust Text CAPTCHAs Using Adversarial Examples
Arxiv
0+阅读 · 2021年1月7日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
Arxiv
7+阅读 · 2018年6月8日
VIP会员
相关VIP内容
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员