Robot manipulation requires a complex set of skills that need to be carefully combined and coordinated to solve a task. Yet, most ReinforcementLearning (RL) approaches in robotics study tasks which actually consist only of a single manipulation skill, such as grasping an object or inserting a pre-grasped object. As a result the skill ('how' to solve the task) but not the actual goal of a complete manipulation ('what' to solve) is specified. In contrast, we study a complex manipulation goal that requires an agent to learn and combine diverse manipulation skills. We propose a challenging, highly under-actuated peg-in-hole task with a free, rotational asymmetrical peg, requiring a broad range of manipulation skills. While correct peg (re-)orientation is a requirement for successful insertion, there is no reward associated with it. Hence an agent needs to understand this pre-condition and learn the skill to fulfil it. The final insertion reward is sparse, allowing freedom in the solution and leading to complex emerging behaviour not envisioned during the task design. We tackle the problem in a multi-task RL framework using Scheduled Auxiliary Control (SAC-X) combined with Regularized Hierarchical Policy Optimization (RHPO) which successfully solves the task in simulation and from scratch on a single robot where data is severely limited.


翻译:机器人操作需要一套复杂的技能, 需要仔细结合和协调才能解决任务。 然而, 在机器人研究任务中, 多数强化学习( RL) 方法实际上只包含一个单一的操作技能, 如抓取一个对象或插入一个预切对象。 因此, 技术( 如何解决任务) 需要指定, 而不是完全操控( “ 要解决什么” ) 的实际目标 。 相反, 我们研究一个复杂的操作目标, 需要一名代理人学习和结合多种操作技能。 我们提出一个具有挑战性的、 高度低活化的连接孔( REL) 方法, 需要一个自由的、 旋转的对称对称的螺旋操纵 。 虽然正确的 peg( 重新) 方向是成功插入的一个要求, 但是没有与此相关的奖励。 因此, 代理需要理解这个预设条件并学习完成它的技能。 最后插入奖励是稀少的, 允许解决方案中的自由, 并导致任务设计期间无法预见到的复杂行为。 我们建议用一个多功能的 RGL 框架来解决问题, 需要广泛的操作技巧, 需要广泛的操作技能。 在 IMU- IMU- AS- AS- AS- AS- IM- IM- IM- IM- IM- 中, AS- AS- AS- IM- IM- AS- IM- IM- IM- IM- AS- IM- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- IC- IC- IC- IC- IC- IC- 成功 共 共 共 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制 制

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
Imitating Interactive Intelligence
Arxiv
0+阅读 · 2020年12月10日
Arxiv
0+阅读 · 2020年12月5日
Arxiv
12+阅读 · 2019年4月9日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
Top
微信扫码咨询专知VIP会员