We focus on the task of object manipulation to an arbitrary goal pose, in which a robot is supposed to pick an assigned object to place at the goal position with a specific pose. However, limited by the execution space of the manipulator with gripper, one-step picking, moving and releasing might be failed, where an intermediate object pose is required as a transition. In this paper, we propose a learning-driven anytime prioritized search-based solver to find a feasible solution with low path cost in a short time. In our work, the problem is formulated as a hierarchical learning problem, with the high level aiming at finding an intermediate object pose, and the low-level manipulator path planning between adjacent grasps. We learn an off-line training path cost estimator to predict approximate path planning costs, which serve as pseudo rewards to allow for pre-training the high-level planner without interacting with the simulator. To deal with the problem of distribution mismatch of the cost net and the actual execution cost space, a refined training stage is conducted with simulation interaction. A series of experiments carried out in simulation and real world indicate that our system can achieve better performances in the object manipulation task with less time and less cost.


翻译:我们专注于将物体操纵到任意目标表面的任务, 机器人应该选择一个指定对象, 以特定姿势放置在目标位置上。 但是, 被操作器执行的空间所限制, 单步选择、 移动和释放可能失败, 中间物体作为过渡需要。 在本文中, 我们提出一个由学习驱动的、 时间优先的搜索求解器, 以便在短时间内以低路径成本找到可行的解决方案。 在我们的工作中, 问题是一个等级化的学习问题, 高层次的目的是找到中间物体的姿势, 低层次的操控器路径在相邻的握杆之间进行规划 。 我们学习了一个离线式培训路径成本估计, 以预测近路径规划成本, 用作假报酬, 用于对高级规划器进行预培训, 而不与模拟器进行互动 。 为了处理成本网和实际执行成本空间的分配不匹配的问题, 一个精细的培训阶段是模拟互动的。 在模拟和现实世界中进行的一系列实验表明, 我们的系统可以在较少的时间和成本的任务中实现更好的运行。

1
下载
关闭预览

相关内容

专知会员服务
16+阅读 · 2020年12月4日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
专知会员服务
109+阅读 · 2020年3月12日
已删除
将门创投
6+阅读 · 2019年11月21日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Arxiv
4+阅读 · 2021年4月13日
VIP会员
相关资讯
已删除
将门创投
6+阅读 · 2019年11月21日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Top
微信扫码咨询专知VIP会员