Force and proximity sensors are key in robotics, especially when applied in collaborative robots that interact physically or cognitively with humans in real unstructured environments. However, most existing sensors for use in robotics are limited by: 1) their scope, measuring single parameters/events and often requiring multiple types of sensors, 2) being expensive to manufacture, limiting their use to where they are strictly necessary and often compromising redundancy, and 3) have null or reduced physical flexibility, requiring further costs with adaptation to a variety of robot structures. This paper presents a novel mechanically flexible force and proximity hybrid sensor based on piezoresistive and self-capacitive phenomena. The sensor is inexpensive and easy to apply even on complex-shaped robot structures. The manufacturing process is described, including controlling circuits, mechanical design, and data acquisition. Experimental trials featuring the characterisation of the sensor were conducted, focusing on both force-electrical resistance and self-capacitive proximity response. The sensor's versatility, flexibility, thinness (1 mm thickness), accuracy (reduced drift) and repeatability demonstrated its applicability in several domains. Finally, the sensor was successfully applied in two distinct situations: hand guiding a robot (by touch commands), and human-robot collision avoidance (by proximity detection).


翻译:力学接近传感器在机器人领域中至关重要,尤其是在与人类在真实不确定环境中进行物理或认知交互的协作机器人中应用。然而,现有大多数机器人用传感器存在一些限制:1)它们的测量范围有限,只测量单个参数/事件,通常需要多种类型的传感器;2)它们的制造成本很高,限制了它们的使用范围,通常影响了冗余性;3)它们的物理柔性缺乏,需要进一步的成本用于适应各种机器人结构。本文提出了一种基于压阻和自电容现象的新型机械柔性力学接近混合传感器。该传感器价格便宜,即使在复杂形状的机器人结构上也易于应用。本文描述了制造过程,包括控制电路、机械设计和数据采集。实验试验包括力电阻特性和自电容接近反应的表征。该传感器的多功能性、柔性、薄度(1毫米厚度)、精度(减少漂移)和可重复性证明了其适用性。最后,该传感器成功地应用于两个不同的场景:通过触感指令手动引导机器人,并通过接近检测实现人机碰撞回避。

0
下载
关闭预览

相关内容

【硬核书】树与网络上的概率,716页pdf
专知会员服务
72+阅读 · 2021年12月8日
《行为与认知机器人学》,241页pdf
专知会员服务
53+阅读 · 2021年4月11日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【泡泡一分钟】用于评估视觉惯性里程计的TUM VI数据集
泡泡机器人SLAM
11+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
21+阅读 · 2009年12月31日
VIP会员
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【泡泡一分钟】用于评估视觉惯性里程计的TUM VI数据集
泡泡机器人SLAM
11+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关基金
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
21+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员