Stochastic bilevel optimization generalizes the classic stochastic optimization from the minimization of a single objective to the minimization of an objective function that depends the solution of another optimization problem. Recently, stochastic bilevel optimization is regaining popularity in emerging machine learning applications such as hyper-parameter optimization and model-agnostic meta learning. To solve this class of stochastic optimization problems, existing methods require either double-loop or two-timescale updates, which are sometimes less efficient. This paper develops a new optimization method for a class of stochastic bilevel problems that we term Single-Timescale stochAstic BiLevEl optimization (STABLE) method. STABLE runs in a single loop fashion, and uses a single-timescale update with a fixed batch size. To achieve an $\epsilon$-stationary point of the bilevel problem, STABLE requires ${\cal O}(\epsilon^{-2})$ samples in total; and to achieve an $\epsilon$-optimal solution in the strongly convex case, STABLE requires ${\cal O}(\epsilon^{-1})$ samples. To the best of our knowledge, this is the first bilevel optimization algorithm achieving the same order of sample complexity as the stochastic gradient descent method for the single-level stochastic optimization.


翻译:软性双级优化将经典的随机优化从最小化一个目标到最小化一个取决于另一个优化问题的解决方案的客观功能。 最近, 随机性双级优化在超参数优化和模型- 不可知性元学习等新兴机器学习应用程序中重新获得支持。 为解决这一类随机优化问题, 现有方法需要双圈或双级更新, 有时效率较低。 本文为一类单时级随机双级问题开发了一种新的优化方法, 我们称之为单时级双层优化( SSTAW) 方法。 以单一循环方式运行, 并使用固定批量大小的单时间级更新。 要达到双级问题固定点, 现有方法需要双级的双层更新或双级更新( epsilon) 或双级更新。 本文开发了一种新的优化方法, 并且要在高调调的单级双级双级双级双级双级双级双级双级双级(\\\ 2} ) 样本中实现美元- 最佳的双级双级解决方案。 STable- 将最佳精度( silsimto) rodegraphilstal) 一级( tal) 一级, 一级( tal- sqol) 一级, 一级, 一级, 一级( 一级) 一级) 一级优化为最佳的 一级( 一级 一级) 一级 一级 一级) 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 级升级至 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 级

0
下载
关闭预览

相关内容

专知会员服务
26+阅读 · 2021年4月2日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
80+阅读 · 2020年7月26日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年4月15日
Arxiv
0+阅读 · 2021年4月13日
Arxiv
0+阅读 · 2021年4月13日
Arxiv
12+阅读 · 2020年12月10日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员