Recent work has shown that the introduction of autonomous vehicles (AVs) in traffic could help reduce traffic jams. Deep reinforcement learning methods demonstrate good performance in complex control problems, including autonomous vehicle control, and have been used in state-of-the-art AV controllers. However, the use of deep neural networks (DNNs) renders automated driving vulnerable to machine learning-based attacks. In this work, we explore backdooring/trojanning of DRL-based AV controllers. We develop a trigger design methodology that is based on well-established principles of traffic physics. The malicious actions include vehicle deceleration and acceleration to cause stop-and-go traffic waves to emerge (congestion attacks), or AV acceleration resulting in the AV crashing into the vehicle in front (insurance attack). In the pre-injection stage, we consider the stealth of this backdoor attack by selecting triggers that are closest to the genuine data. We demonstrate our attack in simulated traffic on a circular track. Experimental results show that the backdoored model does not compromise the performance of normal operation with the maximum decrease in cumulative rewards being 1%, but it can be maliciously activated to cause a crash or congestion when the corresponding triggers appear. We also discuss the effectiveness of state-of-the-art defenses towards the presented attacks.


翻译:最近的工作表明,在交通中引入自动车辆(AV)可以帮助减少交通堵塞。深度强化学习方法显示在复杂控制问题(包括自主车辆控制)方面表现良好,并被用于先进的AV控制器。然而,使用深神经网络(DNNS)使得自动驾驶容易受到基于学习的机器袭击。在这项工作中,我们探索DRL的AV控制器的后门/踢入/后门。我们开发了一个基于既定交通物理学原则的触发设计方法。恶意行动包括车辆减速和加速导致中途交通波的出现(吸食攻击),或AV加速导致AV在前方撞车(保险攻击)。在注射前阶段,我们考虑这种后门攻击的隐形,选择与真实数据最接近的触发器。我们在循环轨道上的模拟交通中显示我们的攻击。实验结果显示,后门模式不会损害正常操作的性能,而导致累积性回报的递减速(Coceptreal practiveral) 也显示,当我们谈论了冲压动性攻击的触发器时,但是,它看起来是恶意状态。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
CCF C类 | DSAA 2019 诚邀稿件
Call4Papers
6+阅读 · 2019年5月13日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Multi-task Deep Reinforcement Learning with PopArt
Arxiv
4+阅读 · 2018年9月12日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
CCF C类 | DSAA 2019 诚邀稿件
Call4Papers
6+阅读 · 2019年5月13日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员