We analyze a general class of bilevel problems, in which the upper-level problem consists in the minimization of a smooth objective function and the lower-level problem is to find the fixed point of a smooth contraction map. This type of problems include instances of meta-learning, equilibrium models, hyperparameter optimization and data poisoning adversarial attacks. Several recent works have proposed algorithms which warm-start the lower level problem, i.e. they use the previous lower-level approximate solution as a staring point for the lower-level solver. This warm-start procedure allows one to improve the sample complexity in both the stochastic and deterministic settings, achieving in some cases the order-wise optimal sample complexity. However, there are situations, e.g., meta learning and equilibrium models, in which the warm-start procedure is not well-suited or ineffective. In this work we show that without warm-start, it is still possible to achieve order-wise optimal or near-optimal sample complexity. In particular, we propose a simple method which uses stochastic fixed point iterations at the lower-level and projected inexact gradient descent at the upper-level, that reaches an $\epsilon$-stationary point using $O(\epsilon^{-2})$ and $\tilde{O}(\epsilon^{-1})$ samples for the stochastic and the deterministic setting, respectively. Finally, compared to methods using warm-start, our approach yields a simpler analysis that does not need to study the coupled interactions between the upper-level and lower-level iterates
翻译:我们分析了一个一般的双级问题, 高层次问题在于最大限度地减少一个平滑的客观功能, 低层次问题在于找到一个平稳缩缩图的固定点。 这种类型的问题包括元学习、 平衡模型、 超参数优化和数据中毒对抗性攻击。 最近的一些工作提出了一些热点引发较低层次问题的算法, 即它们使用以前的低层次近似解决办法作为较低层次解决问题者的凝视点。 这个热点启动程序使得人们可以提高随机和确定性环境的样本复杂性, 在某些情况中, 实现顺序的最优的缩缩缩缩缩缩图复杂度。 但是, 有些情况, 例如, 元学习和平衡模型, 热点启动程序不合适或无效。 在这项工作中, 我们显示, 没有热点, 仍然有可能实现最优化或近于最优化的样本复杂性。 特别是, 我们建议一种简单的方法, 使用低层次和预测的低层次( 美元) 和 水平的递增的递增的递增率, 使用最高水平 和 美元 的递增 的递增 和 美元 的递增 的递增 的 的 的 的 的 水平 的 的, 的 的 的, 的 的 的 的,, 升 升 的 升 的 的 升 升 和 的 升 的 的 的 和 的 升 的 的 升 的 的 的 升 的 的 升 的 的 的 的 的 和 升 的 的 的 升 的 升 的 的 的 的 升 升 的 和 的 的 升 的 的 的 的 的 的 的 的 的 的 的 的 的 和 的 的 的 的 的 的 的 的 的 和 的 的 的 升 升 的 的 的 的 和 的 的 升 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 的 的 的 的 的 升 的 的