Many real-world applications of reinforcement learning (RL) require the agent to deal with high-dimensional observations such as those generated from a megapixel camera. Prior work has addressed such problems with representation learning, through which the agent can provably extract endogenous, latent state information from raw observations and subsequently plan efficiently. However, such approaches can fail in the presence of temporally correlated noise in the observations, a phenomenon that is common in practice. We initiate the formal study of latent state discovery in the presence of such exogenous noise sources by proposing a new model, the Exogenous Block MDP (EX-BMDP), for rich observation RL. We start by establishing several negative results, by highlighting failure cases of prior representation learning based approaches. Then, we introduce the Predictive Path Elimination (PPE) algorithm, that learns a generalization of inverse dynamics and is provably sample and computationally efficient in EX-BMDPs when the endogenous state dynamics are near deterministic. The sample complexity of PPE depends polynomially on the size of the latent endogenous state space while not directly depending on the size of the observation space, nor the exogenous state space. We provide experiments on challenging exploration problems which show that our approach works empirically.


翻译:强化学习的许多实际应用(RL)要求代理处理高维的观测,例如从巨型像素相机产生的观测。先前的工作已经解决了代表性学习的这类问题,通过这种学习,该代理可以从原始观测中获取内在的、潜在的国家信息,并随后有效地进行规划。然而,在观测中出现与时间相关的噪音的情况下,这种方法可能会失败,这种现象在实践中是常见的现象。我们开始在这种外来噪音源的存在下,对潜伏状态发现进行正式研究,方法是提出一个新的模型,即外生性块MDP(EX-BMDP),用于丰富的观测。我们首先通过建立若干负面的结果,强调先前基于代表性学习方法的失败案例。然后,我们引入预测性路径消除算法,在发现反向动态时,当内生性状态的动态几乎具有威慑性时,在EX-BMDP中,这种方法具有可感知的抽样和计算效率。我们开始正式研究潜在内生空间的复杂度取决于潜在内生空间的大小,同时不直接取决于观测空间的大小,也不取决于外生空间的实验方法。我们提出了具有挑战性的探索性的问题。

0
下载
关闭预览

相关内容

【DeepMind】强化学习教程,83页ppt
专知会员服务
151+阅读 · 2020年8月7日
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
90+阅读 · 2020年7月4日
最新《生成式对抗网络》简介,25页ppt
专知会员服务
172+阅读 · 2020年6月28日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
4+阅读 · 2021年10月19日
Arxiv
8+阅读 · 2021年5月21日
Arxiv
3+阅读 · 2018年10月5日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关VIP内容
【DeepMind】强化学习教程,83页ppt
专知会员服务
151+阅读 · 2020年8月7日
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
90+阅读 · 2020年7月4日
最新《生成式对抗网络》简介,25页ppt
专知会员服务
172+阅读 · 2020年6月28日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员