This paper considers the Tikhonv regularization continuation method and the trust-region updating strategy for the linearly equality-constrained optimization problem (Trcmtr). Moreover, in order to improve its computational efficiency and robustness, the new method uses the switching preconditioned technique. That is to say, the new method uses the L-BFGS method as the preconditioned technique to improve its computational efficiency in the well-posed phase. Otherwise, it uses the inverse of the regularization two-sided projected Hessian matrix as the pre-conditioner to improve its robustness. Numerical results also show that the new method is more robust and faster than the traditional optimization method such as the sequential quadratic programming (SQP), the alternating direction method of multipliers (ADMM) and the latest continuation method (Ptctr). The computational time of the new method is about one fifth of that of SQP for the large-scale problem. Finally, the global convergence analysis of the new method is also given.


翻译:本文考虑了Tikhonv 正规化的延续方法以及受线性平等限制的优化问题(Tracmtr)信任区域更新战略。此外,为了提高计算效率和稳健性,新方法使用了转换的先决条件技术。也就是说,新方法使用L-BFGS方法作为提高充足阶段计算效率的前提条件。否则,它使用正规化的双向预测赫西安矩阵作为提高自身稳健性的先决条件。数字结果还表明,新方法比传统的优化方法,如连续二次方程式(SQP)、乘数交替方向法(ADMM)和最新的延续法(Ptcr)更加强大和更快。新方法的计算时间大约是大规模问题的SQP的五分之一。最后,还对新方法进行了全球趋同分析。

0
下载
关闭预览

相关内容

Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
已删除
将门创投
9+阅读 · 2018年12月19日
Arxiv
0+阅读 · 2021年7月26日
Arxiv
0+阅读 · 2021年7月25日
Optimization on manifolds: A symplectic approach
Arxiv
0+阅读 · 2021年7月23日
Arxiv
12+阅读 · 2021年3月24日
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
VIP会员
相关资讯
已删除
将门创投
9+阅读 · 2018年12月19日
Top
微信扫码咨询专知VIP会员