This paper presents a new regularization approach -- termed OpReg-Boost -- to boost the convergence and lessen the asymptotic error of online optimization and learning algorithms. In particular, the paper considers online algorithms for optimization problems with a time-varying (weakly) convex composite cost. For a given online algorithm, OpReg-Boost learns the closest algorithmic map that yields linear convergence; to this end, the learning procedure hinges on the concept of operator regression. We show how to formalize the operator regression problem and propose a computationally-efficient Peaceman-Rachford solver that exploits a closed-form solution of simple quadratically-constrained quadratic programs (QCQPs). Simulation results showcase the superior properties of OpReg-Boost w.r.t. the more classical forward-backward algorithm, FISTA, and Anderson acceleration, and with respect to its close relative convex-regression-boost (CvxReg-Boost) which is also novel but less performing.


翻译:本文介绍了一种新的正规化方法 -- -- 称为OpReg-Boost -- -- 以推进在线优化和学习算法的趋同和减少无症状错误。 特别是, 本文考虑了时间( 微弱) 二次组合成本的优化问题的在线算法。 对于给定的在线算法, Opreg- Boost 学习最接近的算法图, 从而得出线性趋同; 为此, 学习程序取决于操作员回归的概念。 我们展示了如何将操作员回归问题正规化, 并提议一个计算高效的 Peaceman- Rachford 解算器, 该解算出一个简单的四重四重方形程序( QCQPs) 的封闭式解决方案。 模拟结果展示了 Opreg- Boost w.r. t. 更经典的前向加速算法、 FISTA 和 Anderson 加速, 及其近相向 convex- Regresion- oprest ( CvxReg- Boost) 也具有创新但表现较少。

0
下载
关闭预览

相关内容

专知会员服务
52+阅读 · 2020年12月24日
专知会员服务
159+阅读 · 2020年1月16日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Residual Policy Learning
Arxiv
4+阅读 · 2018年12月15日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
6+阅读 · 2018年4月24日
VIP会员
相关VIP内容
专知会员服务
52+阅读 · 2020年12月24日
专知会员服务
159+阅读 · 2020年1月16日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
相关资讯
Top
微信扫码咨询专知VIP会员