We propose a novel framework for verifiable and compositional reinforcement learning (RL) in which a collection of RL sub-systems, each of which learns to accomplish a separate sub-task, are composed to achieve an overall task. The framework consists of a high-level model, represented as a parametric Markov decision process (pMDP) which is used to plan and to analyze compositions of sub-systems, and of the collection of low-level sub-systems themselves. By defining interfaces between the sub-systems, the framework enables automatic decompositons of task specifications, e.g., reach a target set of states with a probability of at least 0.95, into individual sub-task specifications, i.e. achieve the sub-system's exit conditions with at least some minimum probability, given that its entry conditions are met. This in turn allows for the independent training and testing of the sub-systems; if they each learn a policy satisfying the appropriate sub-task specification, then their composition is guaranteed to satisfy the overall task specification. Conversely, if the sub-task specifications cannot all be satisfied by the learned policies, we present a method, formulated as the problem of finding an optimal set of parameters in the pMDP, to automatically update the sub-task specifications to account for the observed shortcomings. The result is an iterative procedure for defining sub-task specifications, and for training the sub-systems to meet them. As an additional benefit, this procedure allows for particularly challenging or important components of an overall task to be determined automatically, and focused on, during training. Experimental results demonstrate the presented framework's novel capabilities.


翻译:我们提出一个新的框架,用于进行可核查的和构成强化学习(RL)和收集低层次子系统本身。通过界定分系统之间的界面,该框架可以自动地使任务规格(例如,达到至少0.95个可能完成一个子任务)的一套目标,形成一个总体任务。框架包括一个高级别模型,作为参数Markov 决策程序(pMDP),用于规划和分析子系统的构成,以及收集低层次子系统本身。通过界定分系统之间的界面,该框架可以自动地使任务规格(例如,达到至少达到0.95个可能完成一个单独的子任务任务的目标)自动脱钩,形成一个单个子任务规格,即实现分系统退出条件,至少达到某种最低的可能性,因为其进入条件得到满足了。这反过来又允许对子系统进行独立的培训和测试;如果每个系统学习一项符合适当的子任务规格的政策,则保证其组成能够满足总体任务成果规格。相反,如果子任务规格(例如,达到一个至少达到0.95个可能完成一个目标的分任务组成部分),形成单个子任务规格,即实现子任务规格的退出条件的退出条件(即达到一定的最低可能性)的退出条件,我们目前一个符合一个可观察到的细的细的细程序,从而确定一个精细的细的细的细程序。我们所测的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的规格,我们到的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细的细

0
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
深度强化学习策略梯度教程,53页ppt
专知会员服务
180+阅读 · 2020年2月1日
专知会员服务
117+阅读 · 2019年12月24日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年8月4日
Arxiv
7+阅读 · 2018年12月26日
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
VIP会员
相关VIP内容
【图与几何深度学习】Graph and geometric deep learning,49页ppt
深度强化学习策略梯度教程,53页ppt
专知会员服务
180+阅读 · 2020年2月1日
专知会员服务
117+阅读 · 2019年12月24日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员