A novel approach to efficiently treat pure-state equality constraints in optimal control problems (OCPs) using a Riccati recursion algorithm is proposed. The proposed method transforms a pure-state equality constraint into a mixed state-control constraint such that the constraint is expressed by variables at a certain previous time stage. It is showed that if the solution satisfies the second-order sufficient conditions of the OCP with the transformed mixed state-control constraints, it is a local minimum of the OCP with the original pure-state constraints. A Riccati recursion algorithm is derived to solve the OCP using the transformed constraints with linear time complexity in the grid number of the horizon, in contrast to a previous approach that scales cubically with respect to the total dimension of the pure-state equality constraints. Numerical experiments on the whole-body optimal control of quadrupedal gaits that involve pure-state equality constraints owing to contact switches demonstrate the effectiveness of the proposed method over existing approaches.


翻译:提议采用一种新颖的方法,在最佳控制问题中有效处理纯国家平等限制,使用Riccati累回算法,在最佳控制问题中有效处理纯国家平等限制; 提议的方法将纯国家平等限制转变为混合国家控制限制,从而在以前某个时间阶段以变量表示这种限制; 表明如果解决办法满足了OCP的第二阶充分条件,而转变了混合国家控制限制,它就是OCP的当地最低条件,而原始的纯国家限制; 产生Riccati累回算法,利用地平线网数线性时间复杂性的转变限制来解决OCP,而以前的做法则在纯国家平等限制的全方位方面是三成的; 对涉及纯国家平等限制的四肢进行整体最佳控制试验,因为接触开关而导致纯国家平等限制; 利用Riccati递解算法对现行方法的有效性。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
基于 Carsim 2016 和 Simulink的无人车运动控制联合仿真(四)
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
lightgbm algorithm case of kaggle(上)
R语言中文社区
8+阅读 · 2018年3月20日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Entropic estimation of optimal transport maps
Arxiv
0+阅读 · 2021年9月24日
Arxiv
6+阅读 · 2021年6月24日
VIP会员
相关VIP内容
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
基于 Carsim 2016 和 Simulink的无人车运动控制联合仿真(四)
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
lightgbm algorithm case of kaggle(上)
R语言中文社区
8+阅读 · 2018年3月20日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员