Automated surgical gesture recognition is of great importance in robot-assisted minimally invasive surgery. However, existing methods assume that training and testing data are from the same domain, which suffers from severe performance degradation when a domain gap exists, such as the simulator and real robot. In this paper, we propose a novel unsupervised domain adaptation framework which can simultaneously transfer multi-modality knowledge, i.e., both kinematic and visual data, from simulator to real robot. It remedies the domain gap with enhanced transferable features by using temporal cues in videos, and inherent correlations in multi-modal towards recognizing gesture. Specifically, we first propose an MDO-K to align kinematics, which exploits temporal continuity to transfer motion directions with smaller gap rather than position values, relieving the adaptation burden. Moreover, we propose a KV-Relation-ATT to transfer the co-occurrence signals of kinematics and vision. Such features attended by correlation similarity are more informative for enhancing domain-invariance of the model. Two feature alignment strategies benefit the model mutually during the end-to-end learning process. We extensively evaluate our method for gesture recognition using DESK dataset with peg transfer procedure. Results show that our approach recovers the performance with great improvement gains, up to 12.91% in ACC and 20.16% in F1score without using any annotations in real robot.


翻译:自动外科动作识别在机器人辅助的最小侵入性手术中非常重要。然而,现有方法假定培训和测试数据来自同一领域,当存在模拟器和真正的机器人等领域差距时,其性能会严重退化。在本文件中,我们提出一个新的不受监督的域适应框架,可以同时将多模式知识,即运动和视觉数据,从模拟器到真实机器人,从模拟器到模拟器和视觉数据转移。它利用视频中的时间提示和多模式中与识别动作的内在关联,弥补领域差异,从而增强可转让特性。具体地说,我们首先建议采用MDO-K来调整运动运动方向,利用时间连续性,以较小差距而不是位置值来转移运动方向,减轻适应负担。此外,我们提议采用KV-关系-关系测试,将运动和视觉的共同信号从模拟传送到真实机器人。这种关联性特征对加强模型的域性差异性更有益。两种特征调整战略在12-端-端对调图解调过程中使模型相互受益。我们利用了时间连续性连续的学习过程,我们用20-K的成绩分析结果分析方法来显示我们恢复结果。

0
下载
关闭预览

相关内容

专知会员服务
59+阅读 · 2021年3月17日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
计算机视觉领域顶会CVPR 2018 接受论文列表
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
机器人开发库软件大列表
专知
10+阅读 · 2018年3月18日
Learning Blind Video Temporal Consistency
Arxiv
3+阅读 · 2018年8月1日
VIP会员
相关VIP内容
专知会员服务
59+阅读 · 2021年3月17日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
计算机视觉领域顶会CVPR 2018 接受论文列表
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
机器人开发库软件大列表
专知
10+阅读 · 2018年3月18日
Top
微信扫码咨询专知VIP会员