Trajectory optimization has been used extensively in robotic systems. In particular, Differential Dynamic Programming (DDP) has performed well as an off-line planner or an online nonlinear model predictive control solver, with a lower computational cost compared with other general-purpose nonlinear programming solvers. However, standard DDP cannot handle any constraints or perform reasonable initialization of a state trajectory. In this paper, we propose a hybrid constrained DDP variant with a multiple-shooting framework. The main technical contributions are twofold: 1) In addition to inheriting the simplicity of the initialization in multiple shooting, a two-stage framework is developed to deal with state and control inequality constraints robustly without loss of the linear feedback term of DDP. Such a hybrid strategy offers a fast convergence of constraint satisfaction. 2) An improved globalization strategy is proposed to exploit the coupled effects between line-searching and regularization, which is able to enhance the numerical robustness of DDP-like approaches. Our approach is tested on three constrained trajectory optimization problems with nonlinear inequality constraints and outperforms the commonly-used collocation and shooting methods in terms of runtime and constraint satisfaction.


翻译:在机器人系统中广泛使用了轨迹优化。特别是,不同动态程序(DDP)运行良好,是一个离线计划或在线非线性模型预测控制软件,与其他通用非线性程序制定软件相比计算成本较低。然而,标准DDP无法处理任何制约因素或合理初始化国家轨迹。在本文件中,我们建议采用混合的受限制DDP变式,并配有多个射击框架。主要技术贡献有双重:(1) 除了在多次射击中继承初始化的简单性外,还开发了两阶段框架,在不丧失DDP线性反馈术语的情况下,大力处理和控制不平等制约。这种混合战略提供了快速的制约性满意度趋同。(2) 提出了改进的全球化战略,以利用线性搜索和正规化之间的同时效应,从而能够提高DDP类似方法的数字稳健性。我们的方法在三个受限制的轨迹优化问题上进行了测试,其中存在非线性不平等制约,并且超越了在运行时间和约束性满意度方面常用的交配和射击方法。

0
下载
关闭预览

相关内容

专知会员服务
28+阅读 · 2021年8月2日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
6+阅读 · 2021年6月24日
Arxiv
7+阅读 · 2020年6月29日
Arxiv
3+阅读 · 2018年5月21日
VIP会员
相关VIP内容
专知会员服务
28+阅读 · 2021年8月2日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
相关资讯
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员