A human hand can grasp a desired number of objects at once from a pile based solely on tactile sensing. To do so, a robot needs to grasp within a pile, sense the number of objects in the grasp before lifting, and predict the number of objects that will remain in the grasp after lifting. It is a challenging problem because when making the prediction, the robotic hand is still in the pile and the objects in the grasp are not observable to vision systems. Moreover, some objects that are grasped by the hand before lifting from the pile may fall out of the grasp when the hand is lifted. This occurs because they were supported by other objects in the pile instead of the fingers of the hand. Therefore, a robotic hand should sense the number of objects in a grasp using its tactile sensors before lifting. This paper presents novel multi-object grasping analyzing methods for solving this problem. They include a grasp volume calculation, tactile force analysis, and a data-driven deep learning approach. The methods have been implemented on a Barrett hand and then evaluated in simulations and a real setup with a robotic system. The evaluation results conclude that once the Barrett hand grasps multiple objects in the pile, the data-driven model can predict, before lifting, the number of objects that will remain in the hand after lifting. The root-mean-square errors for our approach are 0.74 for balls and 0.58 for cubes in simulations, and 1.06 for balls, and 1.45 for cubes in the real system.


翻译:人类的手可以同时从一个完全基于触摸感知的堆积中获取所需数量的物体。 要做到这一点, 机器人需要从堆积中抓取一个理想数量的物体。 要做到这一点, 机器人需要从堆积中抓起, 在抬起前要感觉到被拉动的物体数量, 并预测在抬起后要抓住的物体数量。 这是一个具有挑战性的问题, 因为当作出预测时, 机器人手仍然在堆积中, 手中的物体无法观察到视觉系统。 此外, 一些在从堆积中抬起之前被手抓住的物体可能会在从堆积中掉出来。 之所以发生这种情况,是因为机器人在堆积中得到了其他物体的支持, 在抬起前要感觉到被拉动的物体数量, 在抬动时, 机械手会感受到的数值, 在升动时, 在升动时, 在升动时, 在升动时, 在升动时, 在升动时, 在升动时, 在升动时, 在压时, 在升动时, 在压时, 在升动时, 在升动时, 在升动时, 在压时, 在压时, 在压时, 在升动时, 在压时, 在压时, 在压时, 在压时, 在升动时, 在升动时, 在升动时, 在升动时, 在升动时, 在压, 在压时, 手, 在压时, 手, 在升, 在升, 在升, 在升动时, 在压时, 在压时, 手, 在升, 在升, 在升, 在升, 在升动时, 在升动时, 手, 在升数, 在压时, 在压时, 在升动时, 在升动时, 在 手, 在升动时, 在 键, 在 键, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在升, 在

0
下载
关闭预览

相关内容

《行为与认知机器人学》,241页pdf
专知会员服务
53+阅读 · 2021年4月11日
专知会员服务
39+阅读 · 2020年9月6日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
【Manning新书】现代Java实战,592页pdf
专知会员服务
99+阅读 · 2020年5月22日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
29+阅读 · 2019年10月18日
意识是一种数学模式
CreateAMind
3+阅读 · 2019年6月24日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
机器人开发库软件大列表
专知
10+阅读 · 2018年3月18日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
16篇论文入门manipulation研究
机器人学家
15+阅读 · 2017年6月6日
Arxiv
3+阅读 · 2018年5月21日
Arxiv
5+阅读 · 2018年4月13日
VIP会员
相关资讯
意识是一种数学模式
CreateAMind
3+阅读 · 2019年6月24日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
机器人开发库软件大列表
专知
10+阅读 · 2018年3月18日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
16篇论文入门manipulation研究
机器人学家
15+阅读 · 2017年6月6日
Top
微信扫码咨询专知VIP会员