We propose a method that actively estimates the location of contact between a grasped rigid object and its environment, and uses this as input to a peg-in-hole insertion policy. An estimation model and an active tactile feedback controller work collaboratively to get an accurate estimate of the external contacts. The controller helps the estimation model get a better estimate by regulating a consistent contact mode. The better estimation makes it easier for the controller to regulate the contact. To utilize this contact estimate, we train an object-agnostic insertion policy that learns to make use of the series of contact estimates to guide the insertion. In contrast with previous works that learn a policy directly from tactile signals, since this policy is in contact configuration space, can be learned directly in simulation. Lastly, we demonstrate and evaluate the active extrinsic contact line estimation and the trained insertion policy together in a real experiment. We show that the proposed method inserts various-shaped test objects with higher success rates and fewer insertion attempts than previous work with end-to-end approaches. See supplementary video and results at https://sites.google.com/view/active-extrinsic-contact.


翻译:我们提出一种方法,积极估计被抓住的僵硬物体及其环境之间的接触位置,并将这一方法作为输入输入嵌入孔内插入政策。一个估计模型和一个活跃的触觉反馈控制器协作工作,以获得对外部接触的准确估计。控制器通过管理一个一致的接触模式,帮助估计模型得到更好的估计。更好的估计使控制器更容易调节接触。为了利用这一接触估计,我们培训了一种对象-神学插入政策,该政策学会使用一系列接触估计来指导插入。与以前直接从触觉信号中学习政策的工作形成对比的是,由于该政策处于接触配置空间,因此可以在模拟中直接学习。最后,我们演示和评价活跃的外部接触线估计和经过培训的插入政策,在真正的实验中,我们显示拟议的方法插入了不同形状的测试对象,成功率较高,插入的插入尝试次数少于以往与终端-终端方法相比。见以下网站的补充视频和结果:https://sites.gogle.com/active/explins-contactact。

0
下载
关闭预览

相关内容

【图神经网络导论】Intro to Graph Neural Networks,176页ppt
专知会员服务
125+阅读 · 2021年6月4日
数据科学导论,54页ppt,Introduction to Data Science
专知会员服务
41+阅读 · 2020年7月27日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
107+阅读 · 2020年5月3日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
多目标的强化学习教程
CreateAMind
4+阅读 · 2018年1月25日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
3+阅读 · 2018年3月14日
VIP会员
相关资讯
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
多目标的强化学习教程
CreateAMind
4+阅读 · 2018年1月25日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员