Humans display the remarkable ability to sense the world through tools and other held objects. For example, we are able to pinpoint impact locations on a held rod and tell apart different textures using a rigid probe. In this work, we consider how we can enable robots to have a similar capacity, i.e., to embody tools and extend perception using standard grasped objects. We propose that vibro-tactile sensing using dynamic tactile sensors on the robot fingers, along with machine learning models, enables robots to decipher contact information that is transmitted as vibrations along rigid objects. This paper reports on extensive experiments using the BioTac micro-vibration sensor and a new event dynamic sensor, the NUSkin, capable of multi-taxel sensing at 4~kHz. We demonstrate that fine localization on a held rod is possible using our approach (with errors less than 1 cm on a 20 cm rod). Next, we show that vibro-tactile perception can lead to reasonable grasp stability prediction during object handover, and accurate food identification using a standard fork. We find that multi-taxel vibro-tactile sensing at sufficiently high sampling rate (above 2 kHz) led to the best performance across the various tasks and objects. Taken together, our results provides both evidence and guidelines for using vibro-tactile perception to extend tactile perception, which we believe will lead to enhanced competency with tools and better physical human-robot-interaction.


翻译:人类展示了通过工具和其他持有的物体来感知世界的非凡能力。 例如, 我们能够用僵硬的探测器来定位被搁置的棒子的撞击位置, 并用一个硬质探测器来分辨不同的纹理。 在这项工作中, 我们考虑如何让机器人拥有类似的能力, 也就是说, 用标准被捕获的物体来体现工具和扩展感知。 我们建议使用机器人手指上的动态触摸感应器以及机器学习模型进行振动感应, 使机器人能够解译作为振动在僵硬物体上传送的接触信息。 本文报告了使用BioTac微振动传感器和一个新的事件动态传感器( NUSkin, 能在 4~ kHz 上进行多税感测。 我们证明, 使用我们的方法( 20 厘米杆上误差不到1厘米 ), 使振动触觉感应导致在物体交接期间合理掌握稳定性预测, 以及使用标准的精确食品鉴定。 我们发现, 多税振动振动器微振动传感器, 能够同时使用高压的图像, 提供我们的最佳感应变工具。

0
下载
关闭预览

相关内容

这个新版本的工具会议系列恢复了从1989年到2012年的50个会议的传统。工具最初是“面向对象语言和系统的技术”,后来发展到包括软件技术的所有创新方面。今天许多最重要的软件概念都是在这里首次引入的。2019年TOOLS 50+1在俄罗斯喀山附近举行,以同样的创新精神、对所有与软件相关的事物的热情、科学稳健性和行业适用性的结合以及欢迎该领域所有趋势和社区的开放态度,延续了该系列。 官网链接:http://tools2019.innopolis.ru/
专知会员服务
51+阅读 · 2020年11月20日
专知会员服务
46+阅读 · 2020年8月20日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
【CMU】机器学习导论课程(Introduction to Machine Learning)
专知会员服务
61+阅读 · 2019年8月26日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
计算机 | ISMAR 2019等国际会议信息8条
Call4Papers
3+阅读 · 2019年3月5日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
10+阅读 · 2019年1月29日
直播 | 室内场景的结构化重建
AI研习社
6+阅读 · 2018年8月31日
机器人开发库软件大列表
专知
10+阅读 · 2018年3月18日
R文本分类之RTextTools
R语言中文社区
4+阅读 · 2018年1月17日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Arxiv
1+阅读 · 2021年7月20日
Learning to See Through Obstructions
Arxiv
7+阅读 · 2020年4月2日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
VIP会员
相关资讯
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
计算机 | ISMAR 2019等国际会议信息8条
Call4Papers
3+阅读 · 2019年3月5日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
10+阅读 · 2019年1月29日
直播 | 室内场景的结构化重建
AI研习社
6+阅读 · 2018年8月31日
机器人开发库软件大列表
专知
10+阅读 · 2018年3月18日
R文本分类之RTextTools
R语言中文社区
4+阅读 · 2018年1月17日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Top
微信扫码咨询专知VIP会员