构建能够有效解决各种问题的通用RL算法需要将正确的结构和表示编码到我们的模型中。我们泛化能力的一个关键组成部分是我们开发世界内部模型的能力,该模型可以用于稳健的预测和有效的规划。在本论文中,我们讨论了如何利用表示学习来学习更好的物理场景预测模型,并使agent能够在基于模型的RL框架下通过规划学习到的模型来推广到新的任务。我们将介绍两种能够实现良好泛化的抽象:对象级表示形式的状态抽象和分层RL的技能表示形式的时间抽象。通过将这些抽象概念整合到我们的模型中,我们可以在长期、多阶段的问题上实现高效的学习和组合推广。我们还讨论了元学习在自动学习一般RL算法的正确结构中的作用。利用大规模的基于进化的计算,我们可以学习通用的RL算法,这些算法在各种任务中具有更好的样本效率和最终性能。最后,我们将介绍如何使用这些内部模型来计算RL目标本身,并在不设计奖励函数的情况下训练具有复杂行为的一般RL代理。

成为VIP会员查看完整内容
44

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
斯坦福大学最新【强化学习】2022课程,含ppt
专知会员服务
124+阅读 · 2022年2月27日
【ICML2020】强化学习中基于模型的方法,279页ppt
专知会员服务
46+阅读 · 2020年10月26日
元学习(meta learning) 最新进展综述论文
专知会员服务
278+阅读 · 2020年5月8日
Pathdreamer:室内导航的世界模型
TensorFlow
3+阅读 · 2021年10月22日
不断发展的强化学习算法
TensorFlow
2+阅读 · 2021年5月20日
元学习—Meta Learning的兴起
专知
44+阅读 · 2019年10月19日
一文了解强化学习
AI100
15+阅读 · 2018年8月20日
入门 | 从Q学习到DDPG,一文简述多种强化学习算法
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
A Multi-Objective Deep Reinforcement Learning Framework
VIP会员
相关资讯
相关基金
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员