Humanoid robots are made to resemble humans but their locomotion abilities are far from ours in terms of agility and versatility. When humans walk on complex terrains, or face external disturbances, they combine a set of strategies, unconsciously and efficiently, to regain stability. This paper tackles the problem of developing a robust omnidirectional walking framework, which is able to generate versatile and agile locomotion on complex terrains. The Linear Inverted Pendulum Model and Central Pattern Generator concepts are used to develop a closed-loop walk engine, which is then combined with a reinforcement learning module. This module learns to regulate the walk engine parameters adaptively, and generates residuals to adjust the robot's target joint positions (residual physics). Additionally, we propose a proximal symmetry loss function to increase the sample efficiency of the Proximal Policy Optimization algorithm, by leveraging model symmetries and the trust region concept. The effectiveness of the proposed framework was demonstrated and evaluated across a set of challenging simulation scenarios. The robot was able to generalize what it learned in unforeseen circumstances, displaying human-like locomotion skills, even in the presence of noise and external pushes.


翻译:人类机器人被制造成像人类一样的机器人,但是它们的移动能力在灵活性和多功能性方面远离我们远。当人类在复杂地形上行走或面临外部扰动时,它们会把一套无意识和高效的战略结合起来,以恢复稳定。本文处理的是开发一个强大的全向行走框架的问题,这个框架能够在复杂地形上产生多功能和灵活机动的移动动作。线形反转的中腰部模型和中央型发电机概念被用来开发一个闭路行走引擎,然后与一个强化学习模块相结合。当人类在复杂的地形上行走时,或者面对外部扰动时,它们会学会调整行走引擎参数,并产生剩余部分来调整机器人的目标联合位置(静态物理学 ) 。 此外,我们提出一个准对称性对称性损失功能,通过利用模型对称和信任区域概念,提高准性政策优化算法的样本效率。在一系列具有挑战性的模拟假想中展示和评估了拟议框架的有效性。机器人能够将它在不可预测环境中学到的东西加以概括化,在不可预见的环境中展示和展示。

0
下载
关闭预览

相关内容

深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
已删除
将门创投
4+阅读 · 2019年4月1日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Arxiv
0+阅读 · 2021年12月23日
Arxiv
6+阅读 · 2019年11月14日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
已删除
将门创投
4+阅读 · 2019年4月1日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Top
微信扫码咨询专知VIP会员