In Autonomous Driving (AD) systems, perception is both security and safety critical. Despite various prior studies on its security issues, all of them only consider attacks on camera- or LiDAR-based AD perception alone. However, production AD systems today predominantly adopt a Multi-Sensor Fusion (MSF) based design, which in principle can be more robust against these attacks under the assumption that not all fusion sources are (or can be) attacked at the same time. In this paper, we present the first study of security issues of MSF-based perception in AD systems. We directly challenge the basic MSF design assumption above by exploring the possibility of attacking all fusion sources simultaneously. This allows us for the first time to understand how much security guarantee MSF can fundamentally provide as a general defense strategy for AD perception. We formulate the attack as an optimization problem to generate a physically-realizable, adversarial 3D-printed object that misleads an AD system to fail in detecting it and thus crash into it. We propose a novel attack pipeline that addresses two main design challenges: (1) non-differentiable target camera and LiDAR sensing systems, and (2) non-differentiable cell-level aggregated features popularly used in LiDAR-based AD perception. We evaluate our attack on MSF included in representative open-source industry-grade AD systems in real-world driving scenarios. Our results show that the attack achieves over 90% success rate across different object types and MSF. Our attack is also found stealthy, robust to victim positions, transferable across MSF algorithms, and physical-world realizable after being 3D-printed and captured by LiDAR and camera devices. To concretely assess the end-to-end safety impact, we further perform simulation evaluation and show that it can cause a 100% vehicle collision rate for an industry-grade AD system.


翻译:在自动驱动系统(AD)中,感知既是安全的,也是安全的。尽管以前曾对其安全问题进行了各种研究,但所有这些系统都只考虑攻击以相机或利达AR为基础的自动反弹感知。然而,如今,生产反倾销系统主要采用多传感器融合(MSF)设计,原则上,在假设并非所有聚合源都(或可能)同时受到攻击的情况下,这些攻击可以更有力地对付。在本文中,我们首次研究了AD系统基于MSF的感知的安全问题。我们直接挑战上述基本的MSF设计假设,我们探索了同时攻击所有易爆源的可能性。这使我们第一次能够了解多少安全保障措施可以从根本上作为基于多传感器的反爆裂(MSF)设计。我们把攻击作为一种优化问题来产生一个可实现的、对抗性3D打印的物体,使AD系统无法检测,从而崩溃。我们提出了一个新的攻击管道,用来应对两大设计挑战:(1) 不可辨别的目标相机和利达(LAAR)级的反射程(MAD) 系统在现实的AD 系统中,我们用不易变的M(MAD) 系统显示一个可实现的自我攻击性磁系统。

0
下载
关闭预览

相关内容

2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
已删除
将门创投
14+阅读 · 2019年5月29日
计算机 | ICDE 2020等国际会议信息8条
Call4Papers
3+阅读 · 2019年5月24日
计算机 | 中低难度国际会议信息6条
Call4Papers
7+阅读 · 2019年5月16日
人工智能 | ISAIR 2019诚邀稿件(推荐SCI期刊)
Call4Papers
6+阅读 · 2019年4月1日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
Arxiv
12+阅读 · 2021年6月21日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
VIP会员
相关VIP内容
2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
相关资讯
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
已删除
将门创投
14+阅读 · 2019年5月29日
计算机 | ICDE 2020等国际会议信息8条
Call4Papers
3+阅读 · 2019年5月24日
计算机 | 中低难度国际会议信息6条
Call4Papers
7+阅读 · 2019年5月16日
人工智能 | ISAIR 2019诚邀稿件(推荐SCI期刊)
Call4Papers
6+阅读 · 2019年4月1日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
Top
微信扫码咨询专知VIP会员