Human-machine interfaces (HMI) play a pivotal role in the rehabilitation and daily assistance of lower-limb amputees. The brain of such interfaces is a control model that detects the user's intention using sensor input and generates corresponding output (control commands). With recent advances in technology, AI-based policies have gained attention as control models for HMIs. However, supervised learning techniques require affluent amounts of labeled training data from the user, which is challenging in the context of lower-limb rehabilitation. Moreover, a static pre-trained model does not take the temporal variations in the motion of the amputee (e.g., due to speed, terrain) into account. In this study, we aimed to address both of these issues by creating an incremental training approach for a torque prediction model using incomplete user-specific training data and biologically inspired temporal patterns of human gait. To reach this goal, we created a hybrid of two distinct approaches, a generic inter-individual and an adapting individual-specific model that exploits the inter-limb synergistic coupling during human gait to learn a function that predicts the torque at the ankle joint continuously based on the kinematic sequences of the hip, knee, and shank. An inter-individual generic base model learns temporal patterns of gait from a set of able-bodied individuals and predicts the gait patterns for a new individual, while the individual-specific adaptation model learns and predicts the temporal patterns of gait specific to a particular individual. The iterative training using the hybrid model was validated on eight able-bodied and five transtibial amputee subjects. It was found that, with the addition of estimators fitted to individual-specific data, the accuracy significantly increased from the baseline inter-individual model and plateaued within two to three iterations.


翻译:人体机器界面(HMI)在低limb 截肢者的康复和日常援助中发挥着关键作用。 这种界面的大脑是一个控制模型,它用传感器输入检测用户的意图并生成相应的输出(控制命令)。随着技术的最近进步,基于AI的政策作为HMI的控制模型得到了关注。然而,监督的学习技术需要用户提供大量贴标签的培训数据,这在低limb 恢复方面具有挑战性。此外,静态的预培训模型并不考虑截肢者运动(例如,由于速度、地形)的时间变化。在这个研究中,我们的目标是通过对调心预测模型的渐进式培训方法,使用不完整的用户特定培训数据和生物激发的人类动作时间模式。为了实现这一目标,我们创建了两种不同的混合方法,一种通用的跨个体模型和适应个人模式,在人造图期间,利用经确认的周期间周期性变精度变精度(例如,由于速度、地形)的动作变化模式。我们的目标是,通过对调整尾部进行渐进式分析,然后在连续的骨架上,通过一个连续的模型进行学习。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
机器人开发库软件大列表
专知
10+阅读 · 2018年3月18日
人工智能 | 国际会议/SCI期刊约稿信息9条
Call4Papers
3+阅读 · 2018年1月12日
Delay-aware Robust Control for Safe Autonomous Driving
Arxiv
0+阅读 · 2021年11月30日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
Arxiv
6+阅读 · 2018年6月21日
VIP会员
相关VIP内容
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
机器人开发库软件大列表
专知
10+阅读 · 2018年3月18日
人工智能 | 国际会议/SCI期刊约稿信息9条
Call4Papers
3+阅读 · 2018年1月12日
Top
微信扫码咨询专知VIP会员