Robotic grasping for a diverse set of objects is essential in many robot manipulation tasks. One promising approach is to learn deep grasping models from training datasets of object images and grasp labels. Approaches in this category require millions of data to train deep models. However, empirical grasping datasets typically consist of sparsely labeled samples (i.e., a limited number of successful grasp labels in each image). This paper proposes a Maximum Likelihood Grasp Sampling Loss (MLGSL) to tackle the data sparsity issue. The proposed method supposes that successful grasp labels are sampled from a ground-truth grasp distribution and aims to recover the ground-truth map. MLGSL is utilized for training a fully convolutional network that detects thousands of grasps simultaneously. Training results suggest that models based on MLGSL can learn to grasp with datasets composing of 2 labels per image, which implies that it is 8x more data-efficient than current state-of-the-art techniques. Meanwhile, physical robot experiments demonstrate an equivalent performance in detecting robust grasps at a 91.8% grasp success rate on household objects.


翻译:许多机器人操作任务中必须掌握多种天体的机器人抓取。 一种有希望的方法是从对象图像和抓取标签的训练数据集中学习深藏模型。 这一类别的方法需要数百万数据来训练深层模型。 但是, 实证抓取数据集通常由很少贴标签的样本组成( 即每张图像中只有数量有限的成功抓取标签 ) 。 本文建议用一个最大相似度采集失败( MLGSL) 来解决数据扩散问题 。 提议的方法假设, 成功的抓取标签是从地盘抓取的分布中取样, 目的是恢复地盘图 。 MLGSL 用于训练一个完全进化的网络, 同时检测数千个抓取。 培训结果表明, 以 MLGSLL为主的模型可以学习用数据集来捕捉每个图像的2个标签, 这意味着它比目前的最新技术要高8x数据效率。 与此同时, 物理机器人实验显示, 在以91.8% 的家用物体的捕捉取率探测稳性捕捉取能力方面, 具有同等的功能。

0
下载
关闭预览

相关内容

【Google-Marco Cuturi】最优传输,339页ppt,Optimal Transport
专知会员服务
47+阅读 · 2021年10月26日
商业数据分析,39页ppt
专知会员服务
157+阅读 · 2020年6月2日
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
【干货】大数据入门指南:Hadoop、Hive、Spark、 Storm等
专知会员服务
94+阅读 · 2019年12月4日
Diganta Misra等人提出新激活函数Mish,在一些任务上超越RuLU
专知会员服务
14+阅读 · 2019年10月15日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
8+阅读 · 2021年11月14日
VIP会员
相关资讯
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员