Progress in deep learning highlights the tremendous potential of utilizing diverse robotic datasets for attaining effective generalization and makes it enticing to consider leveraging broad datasets for attaining robust generalization in robotic learning as well. However, in practice, we often want to learn a new skill in a new environment that is unlikely to be contained in the prior data. Therefore we ask: how can we leverage existing diverse offline datasets in combination with small amounts of task-specific data to solve new tasks, while still enjoying the generalization benefits of training on large amounts of data? In this paper, we demonstrate that end-to-end offline RL can be an effective approach for doing this, without the need for any representation learning or vision-based pre-training. We present pre-training for robots (PTR), a framework based on offline RL that attempts to effectively learn new tasks by combining pre-training on existing robotic datasets with rapid fine-tuning on a new task, with as few as 10 demonstrations. PTR utilizes an existing offline RL method, conservative Q-learning (CQL), but extends it to include several crucial design decisions that enable PTR to actually work and outperform a variety of prior methods. To our knowledge, PTR is the first RL method that succeeds at learning new tasks in a new domain on a real WidowX robot with as few as 10 task demonstrations, by effectively leveraging an existing dataset of diverse multi-task robot data collected in a variety of toy kitchens. We also demonstrate that PTR can enable effective autonomous fine-tuning and improvement in a handful of trials, without needing any demonstrations. An accompanying overview video can be found in the supplementary material and at this anonymous URL: https://sites.google.com/view/ptr-rss


翻译:深度学习的进展凸显了利用各种机器人数据集以获得有效泛化的巨大潜力,并且考虑利用广泛数据集以实现机器人学习的强泛化能力具有引人注目的吸引力。然而,在实践中,我们经常希望在新环境中学习新技能,这种技能不太可能包含在以前的数据中。因此,我们问:如何结合少量特定任务数据与现有的多样化离线数据集来解决新任务,同时仍然享受在大量数据上训练的强泛化能力呢?在本文中,我们证明了端到端离线强化学习可以成为实现上述目标的有效方法,而无需任何表示学习或基于视觉的预训练。我们提出了Pre-Training for Robots(机器人预训练,PTR)框架,该框架基于离线强化学习,试图通过将现有机器人数据集预训练与新任务的快速微调相结合来有效地学习新任务,只需要10个演示。PTR使用现有的离线RL方法——保守Q-learning(CQL),但扩展了它以包括几个关键的设计决策,使PTR能够实际工作并优于各种先前的方法。据我们所知,PTR是第一个在真实的WidowX机器人上使用少于10个任务演示,通过有效利用已收集的各种玩具厨房机器人多任务数据集,成功地学习新领域的新任务的强化学习方法。我们还证明了PTR可以在少量试验中实现有效的自主微调和提高,而无需任何演示。相关概述视频可以在补充材料和此匿名URL中找到:https://sites.google.com/view/ptr-rss

1
下载
关闭预览

相关内容

【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
45+阅读 · 2022年7月10日
【NeurIPS 2020 Tutorial】离线强化学习:从算法到挑战,80页ppt
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
38+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
46+阅读 · 2009年12月31日
Arxiv
11+阅读 · 2018年4月25日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
38+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
46+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员