This paper studies how to improve the generalization performance and learning speed of the navigation agents trained with deep reinforcement learning (DRL). DRL exhibits huge potential in mapless navigation, but DRL agents performing well in training scenarios are found to perform poorly in unfamiliar real-world scenarios. In this work, we present the representation of LiDAR readings as a key factor behind agents' performance degradation and propose a simple but powerful input pre-processing (IP) approach to improve the agents' performance. As this approach uses adaptively parametric reciprocal functions to pre-process LiDAR readings, we refer to this approach as IPAPRec and its normalized version as IPAPRecN. IPAPRec/IPAPRecN can highlight important short-distance values and compress the range of less-important long-distance values in laser scans, which well addressed the issues induced by conventional representations of laser scans. Their high performance is validated by extensive simulation and real-world experiments. The results show that our methods can substantially improve agents' success rates and greatly reduce the training time compared to conventional methods.


翻译:本文研究如何提高受过深层加固学习(DRL)培训的导航剂的一般性能和学习速度。 DRL在无地图导航中具有巨大潜力,但DRL在培训情景方面表现良好,在不为人所知的现实情景中表现不佳。在这项工作中,我们将LIDAR读数的表述作为代理人性能退化的一个关键因素,并提出一种简单而有力的投入预处理(IP)方法来改进代理人的性能。由于这一方法在LIDAR前的读数中使用了适应性对等功能,我们称之为IPAPRec, 其普通版本为 IPAPRecN。 IPAPRec/IPAPRecN 能够突出重要的短距离值,并压缩激光扫描中不太重要的长距离值的范围,这很好地解决了激光扫描常规表现引起的问题。其高性能通过广泛的模拟和实际实验得到验证。结果显示,我们的方法可以大大提高代理人的成功率,并大大缩短培训时间与常规方法相比。

1
下载
关闭预览

相关内容

Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
资源|斯坦福课程:深度学习理论!
全球人工智能
17+阅读 · 2017年11月9日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Residual Policy Learning
Arxiv
4+阅读 · 2018年12月15日
Arxiv
6+阅读 · 2018年12月10日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
资源|斯坦福课程:深度学习理论!
全球人工智能
17+阅读 · 2017年11月9日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Top
微信扫码咨询专知VIP会员