The electromyography (EMG) signals have been widely utilized in human robot interaction for extracting user hand and arm motion instructions. A major challenge of the online interaction with robots is the reliable EMG recognition from real-time data. However, previous studies mainly focused on using steady-state EMG signals with a small number of grasp patterns to implement classification algorithms, which is insufficient to generate robust control regarding the dynamic muscular activity variation in practice. Introducing more EMG variability during training and validation could implement a better dynamic-motion detection, but only limited research focused on such grasp-movement identification, and all of those assessments on the non-static EMG classification require supervised ground-truth label of the movement status. In this study, we propose a framework for classifying EMG signals generated from continuous grasp movements with variations on dynamic arm/hand postures, using an unsupervised motion status segmentation method. We collected data from large gesture vocabularies with multiple dynamic motion phases to encode the transitions from one intent to another based on common sequences of the grasp movements. Two classifiers were constructed for identifying the motion-phase label and grasp-type label, where the dynamic motion phases were segmented and labeled in an unsupervised manner. The proposed framework was evaluated in real-time with the accuracy variation over time presented, which was shown to be efficient due to the high degree of freedom of the EMG data.


翻译:在人体机器人互动中广泛使用电磁学信号,以提取用户手和手臂运动指示。与机器人进行在线互动的一个主要挑战,是从实时数据中获得可靠的环境管理小组识别的可靠地实时数据。然而,以往的研究主要侧重于使用稳定状态的环境管理小组信号,并有少量的掌握模式,以实施分类算法,这不足以对动态肌肉活动变化的实际做法产生强有力的控制。在培训和验证过程中引入更多的电子小组变异性,可以实施更好的动态动动探测,但只有有限的研究侧重于这种掌握运动识别,以及非静态环境管理小组分类的所有这些评估都需要对运动状态进行监管的地面真相标签。在本研究中,我们提出了一个框架,用于对持续掌握运动动动动的电动电动电动电动电磁小组信号进行分类,同时使用一种不受监督的运动状态偏移法。我们从大型手势动电波波波中收集了数据,并采用多个动态运动阶段,将这种意图从一种趋势转换成另一种状态,根据共同的掌握运动顺序,将非静动电动电动电动定位系统进行转换。两个分类师进行了构建,在确定运动的动态结构上,在动态结构上对动态标签和轮式标签结构进行非动态结构结构进行评价后,对动态结构进行实时变。

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
IJCAI2020信息抽取相关论文合集
AINLP
6+阅读 · 2020年6月16日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
BERT烹饪之法:fintune 的艺术
大数据文摘
4+阅读 · 2019年4月20日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
1+阅读 · 2021年6月10日
VIP会员
相关资讯
IJCAI2020信息抽取相关论文合集
AINLP
6+阅读 · 2020年6月16日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
BERT烹饪之法:fintune 的艺术
大数据文摘
4+阅读 · 2019年4月20日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员