Safety and robustness are two desired properties for any reinforcement learning algorithm. CMDPs can handle additional safety constraints and RMDPs can perform well under model uncertainties. In this paper, we propose to unite these two frameworks resulting in robust constrained MDPs (RCMDPs). The motivation is to develop a framework that can satisfy safety constraints while also simultaneously offer robustness to model uncertainties. We develop the RCMDP objective, derive gradient update formula to optimize this objective and then propose policy gradient based algorithms. We also independently propose Lyapunov based reward shaping for RCMDPs, yielding better stability and convergence properties.


翻译:安全和稳健性是任何强化学习算法的两个理想特性。 CMDP可以处理额外的安全限制,RMDP也可以在模型不确定性下很好地发挥作用。在本文件中,我们提议将这两个框架合并起来,从而形成强有力的MDP(RCMDPs),目的是制定一个能够满足安全限制的框架,同时也为模型不确定性提供稳健性。我们制定了RCMDP目标,得出梯度更新公式以优化这一目标,然后提出基于政策梯度的算法。我们还独立地提议为RCMDPs制作基于Lyapunov的奖励,从而产生更好的稳定性和趋同性。

0
下载
关闭预览

相关内容

专知会员服务
21+阅读 · 2021年6月26日
专知会员服务
50+阅读 · 2020年12月14日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
已删除
将门创投
5+阅读 · 2019年9月10日
Arxiv
0+阅读 · 2021年10月1日
Arxiv
0+阅读 · 2021年10月1日
Arxiv
6+阅读 · 2021年6月24日
Arxiv
8+阅读 · 2021年5月21日
VIP会员
相关资讯
已删除
将门创投
5+阅读 · 2019年9月10日
Top
微信扫码咨询专知VIP会员