Stochastic bilevel optimization generalizes the classic stochastic optimization from the minimization of a single objective to the minimization of an objective function that depends the solution of another optimization problem. Recently, stochastic bilevel optimization is regaining popularity in emerging machine learning applications such as hyper-parameter optimization and model-agnostic meta learning. To solve this class of stochastic optimization problems, existing methods require either double-loop or two-timescale updates, which are sometimes less efficient. This paper develops a new optimization method for a class of stochastic bilevel problems that we term Single-Timescale stochAstic BiLevEl optimization (STABLE) method. STABLE runs in a single loop fashion, and uses a single-timescale update with a fixed batch size. To achieve an $\epsilon$-stationary point of the bilevel problem, STABLE requires ${\cal O}(\epsilon^{-2})$ samples in total; and to achieve an $\epsilon$-optimal solution in the strongly convex case, STABLE requires ${\cal O}(\epsilon^{-1})$ samples. To the best of our knowledge, this is the first bilevel optimization algorithm achieving the same order of sample complexity as the stochastic gradient descent method for the single-level stochastic optimization.


翻译:软性双级优化将经典的随机优化从最小化一个目标到最小化一个取决于另一个优化问题的解决方案的客观功能。 最近, 随机性双级优化在超参数优化和模型- 不可知性元学习等新兴机器学习应用程序中重新获得支持。 为解决这一类随机优化问题, 现有方法需要双圈或双级更新, 有时效率较低。 本文为一类单时级随机双级问题开发了一种新的优化方法, 我们称之为单时级双层优化( SSTAW) 方法。 以单一循环方式运行, 并使用固定批量大小的单时间级更新。 要达到双级问题固定点, 现有方法需要双级的双层更新或双级更新( epsilon) 或双级更新。 本文开发了一种新的优化方法, 并且要在高调调的单级双级双级双级双级双级双级双级双级双级(\\\ 2} ) 样本中实现美元- 最佳的双级双级解决方案。 STable- 将最佳精度( silsimto) rodegraphilstal) 一级( tal) 一级, 一级( tal- sqol) 一级, 一级, 一级, 一级( 一级) 一级) 一级优化为最佳的 一级( 一级 一级) 一级 一级 一级) 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 级升级至 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 一级 级

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
124+阅读 · 2020年11月20日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
171+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员