In recent years, Bi-Level Optimization (BLO) techniques have received extensive attentions from both learning and vision communities. A variety of BLO models in complex and practical tasks are of non-convex follower structure in nature (a.k.a., without Lower-Level Convexity, LLC for short). However, this challenging class of BLOs is lack of developments on both efficient solution strategies and solid theoretical guarantees. In this work, we propose a new algorithmic framework, named Initialization Auxiliary and Pessimistic Trajectory Truncated Gradient Method (IAPTT-GM), to partially address the above issues. In particular, by introducing an auxiliary as initialization to guide the optimization dynamics and designing a pessimistic trajectory truncation operation, we construct a reliable approximate version of the original BLO in the absence of LLC hypothesis. Our theoretical investigations establish the convergence of solutions returned by IAPTT-GM towards those of the original BLO without LLC. As an additional bonus, we also theoretically justify the quality of our IAPTT-GM embedded with Nesterov's accelerated dynamics under LLC. The experimental results confirm both the convergence of our algorithm without LLC, and the theoretical findings under LLC.


翻译:近年来,双级最佳化(BLO)技术受到学习界和视觉界的广泛关注,复杂而实际任务中的各种BLO模型具有非convex跟踪结构的性质(a.k.a.a.,没有低级稳定,LLC简称);然而,这一具有挑战性的BLO类别缺乏高效解决方案战略和坚实理论保障方面的发展;在这项工作中,我们提出了一个新的算法框架,称为初始化辅助和悲观轨迹梯状渐进法(APTT-GM),以部分解决上述问题;特别是,我们采用辅助性初始化作为指导优化动态的辅助,并设计悲观轨迹轨迹变操作,在没有LLAC假设的情况下,我们构建了一个可靠的原始BLOO的大致版本;我们的理论调查确立了IPTT-GM所返回的解决方案与原始无LLC的解决办法的趋同;作为额外的奖励,我们还从理论上证明,我们IPTTGMG(IPT-GM)与Nesternestaldalalalalalalal的理论趋同,没有加速的实验性LC的结果。

0
下载
关闭预览

相关内容

专知会员服务
12+阅读 · 2021年10月12日
专知会员服务
14+阅读 · 2021年5月21日
专知会员服务
32+阅读 · 2021年2月12日
专知会员服务
50+阅读 · 2020年12月14日
【斯坦福大学】Gradient Surgery for Multi-Task Learning
专知会员服务
46+阅读 · 2020年1月23日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
大数据 | 顶级SCI期刊专刊/国际会议信息7条
Call4Papers
10+阅读 · 2018年12月29日
逆强化学习几篇论文笔记
CreateAMind
9+阅读 · 2018年12月13日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
3+阅读 · 2018年10月5日
VIP会员
相关VIP内容
相关资讯
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
大数据 | 顶级SCI期刊专刊/国际会议信息7条
Call4Papers
10+阅读 · 2018年12月29日
逆强化学习几篇论文笔记
CreateAMind
9+阅读 · 2018年12月13日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员