We introduce variable projected augmented Lagrangian (VPAL) methods for solving generalized nonlinear Lasso problems with improved speed and accuracy. By eliminating the nonsmooth variable via soft-thresholding, VPAL transforms the problem into a smooth reduced formulation. For linear models, we develop a preconditioned variant that mimics Newton-type updates and yields significant acceleration. We prove convergence guarantees for both standard and preconditioned VPAL under mild assumptions and show that variable projection leads to sharper convergence and higher solution quality. The method seamlessly extends to nonlinear inverse problems, where it outperforms traditional approaches in applications such as phase retrieval and contrast enhanced MRI (LIP-CAR). Across tasks including deblurring, inpainting, and sparse-view tomography, VPAL consistently delivers state-of-the-art reconstructions, positioning variable projection as a powerful tool for modern large-scale inverse problems.


翻译:本文提出了变量投影增广拉格朗日方法,用于求解广义非线性Lasso问题,以提升求解速度与精度。通过软阈值操作消除非光滑变量,VPAL将原问题转化为光滑的简化形式。针对线性模型,我们开发了预处理变体,该变体模拟牛顿型更新并实现显著加速。我们在温和假设下证明了标准VPAL与预处理VPAL的收敛性保证,并表明变量投影能带来更锐利的收敛性与更高解质量。该方法可无缝扩展至非线性反问题,在相位恢复与对比增强磁共振成像等应用中超越传统方法。在去模糊、图像修复及稀疏视角断层成像等任务中,VPAL始终提供最先进的重建结果,确立了变量投影作为现代大规模反问题强效工具的地位。

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
11+阅读 · 2019年4月15日
Learning Implicit Fields for Generative Shape Modeling
Arxiv
11+阅读 · 2018年12月6日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员