In high-dimensional state spaces, the usefulness of Reinforcement Learning (RL) is limited by the problem of exploration. This issue has been addressed using potential-based reward shaping (PB-RS) previously. In the present work, we introduce Final-Volume-Preserving Reward Shaping (FV-RS). FV-RS relaxes the strict optimality guarantees of PB-RS to a guarantee of preserved long-term behavior. Being less restrictive, FV-RS allows for reward shaping functions that are even better suited for improving the sample efficiency of RL algorithms. In particular, we consider settings in which the agent has access to an approximate plan. Here, we use examples of simulated robotic manipulation tasks to demonstrate that plan-based FV-RS can indeed significantly improve the sample efficiency of RL over plan-based PB-RS.


翻译:在高地国家空间,强化学习的效用受到勘探问题的限制,这个问题已经利用以前基于潜在奖励的形状(PB-RS)来解决,在目前的工作中,我们采用了最终-Volume-Preserve Reward 形状(FV-RS),FV-RS放松了PB-RS的严格最佳保证,以保障保存的长期行为。FV-RS限制较少,允许奖励甚至更适合提高RL算法抽样效率的塑造功能。我们特别考虑到该代理商可以获得近似计划的环境。在这里,我们使用模拟机器人操纵任务的例子来证明,基于计划的FV-RS确实能够大大提高RL超过基于计划的PB-RS的样本效率。

0
下载
关闭预览

相关内容

专知会员服务
52+阅读 · 2020年9月7日
因果关联学习,Causal Relational Learning
专知会员服务
182+阅读 · 2020年4月21日
专知会员服务
60+阅读 · 2020年3月19日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
【2020新书】图机器学习,Graph-Powered Machine Learning
专知会员服务
339+阅读 · 2020年1月27日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
已删除
清华大学研究生教育
3+阅读 · 2018年6月30日
Arxiv
0+阅读 · 2021年9月15日
VIP会员
相关资讯
已删除
清华大学研究生教育
3+阅读 · 2018年6月30日
Top
微信扫码咨询专知VIP会员