In this work we propose a learning approach to high-precision robotic assembly problems in the continuous action domain. Unlike many learning-based approaches that heavily rely on vision or spatial tracking, our approach takes force/torque as the only observation. Each learned policy from our approach is robot-agnostic, which can be applied to different robotic arms. These two features can greatly reduce complexity and cost to perform robotic assembly in the real world, especially in unstructured settings such as in architectural construction. To achieve it, we have developed a new distributed RL agent, named Recurrent Distributed DDPG (RD2), which extends Ape-X DDPG with recurrency and makes two structural improvements on prioritized experience replay. Our results show that RD2 is able to solve two fundamental high-precision assembly tasks, lap-joint and peg-in-hole, and outperforms two state-of-the-art algorithms, Ape-X DDPG and PPO with LSTM. We have successfully evaluated our robot-agnostic policies on three robotic arms, Kuka KR60, Franka Panda, and UR10, in simulation. The video presenting our experiments is available at https://sites.google.com/view/rd2-rl


翻译:在这项工作中,我们建议对连续行动领域的高精度机器人组装问题采取学习方法。与许多严重依赖视觉或空间跟踪的基于学习的方法不同,我们的方法将强/托克作为唯一的观察。从我们的方法中学习的每个政策都是机器人-神学的,可以应用于不同的机器人臂体。这两个特征可以大大降低在现实世界中进行机器人组装的复杂性和成本,特别是在建筑建筑等非结构化环境中进行机器人组装的复杂程度和成本。为了实现这一点,我们开发了一个新的分布式RL代理,名为DDDPG(RD2),它以重新货币扩展了Ape-X DDPG(RD2),对优先经验的重现进行了两个结构性改进。我们的结果显示RD2能够解决两种基本的高精度组装任务,即大腿组合和嵌入洞,并且超越了两个最先进的算法算法,即Ape-X DDPG和PPPPO与LSTM。我们成功地评估了我们关于三种机器人武器的机器人-Amb-A60、Frankagle Panda Panda和AM10s的视频/Ur的实验。

0
下载
关闭预览

相关内容

【机器学习术语宝典】机器学习中英文术语表
专知会员服务
61+阅读 · 2020年7月12日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Arxiv
8+阅读 · 2018年6月19日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Top
微信扫码咨询专知VIP会员