Bi-level optimization model is able to capture a wide range of complex learning tasks with practical interest. Due to the witnessed efficiency in solving bi-level programs, gradient-based methods have gained popularity in the machine learning community. In this work, we propose a new gradient-based solution scheme, namely, the Bi-level Value-Function-based Interior-point Method (BVFIM). Following the main idea of the log-barrier interior-point scheme, we penalize the regularized value function of the lower level problem into the upper level objective. By further solving a sequence of differentiable unconstrained approximation problems, we consequently derive a sequential programming scheme. The numerical advantage of our scheme relies on the fact that, when gradient methods are applied to solve the approximation problem, we successfully avoid computing any expensive Hessian-vector or Jacobian-vector product. We prove the convergence without requiring any convexity assumption on either the upper level or the lower level objective. Experiments demonstrate the efficiency of the proposed BVFIM on non-convex bi-level problems.


翻译:双层优化模型能够以实际的兴趣捕捉到范围广泛的复杂学习任务。由于在解决双层程序上的效率,基于梯度的方法在机器学习界已越来越受欢迎。在这项工作中,我们提出了一个新的基于梯度的解决办法方案,即基于双层价值功能的内点法(BVFIM)。根据对线障碍内点办法的主要想法,我们将较低层次问题的正常价值功能降为上层目标。通过进一步解决一系列不同而又不受限制的近似问题,我们因此产生了一个相继的编程方案。我们这个办法的数字优势取决于这样一个事实,即在使用梯度方法解决近端问题时,我们成功地避免计算任何昂贵的赫斯-韦特或雅各布-维克托-维克托产品。我们证明,在不要求对上层或下层目标作任何同流假设的情况下,我们证明了这种趋同性。实验表明拟议的BVFIM在非凝点双层问题上的效率。

0
下载
关闭预览

相关内容

Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
6+阅读 · 2021年6月24日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员