It's well-known that inverse problems are ill-posed and to solve them meaningfully one has to employ regularization methods. Traditionally, the most popular regularization approaches are Variational-type approaches, i.e., penalized/constrained functional minimization. In recent years, the classical regularization approaches have been replaced by the so-called plug-and-play (PnP) algorithms, which copies the proximal gradient minimization processes, such as ADMM or FISTA, but with any general denoiser. However, unlike the traditional proximal gradient methods, the theoretical analysis and convergence results have been insufficient for these PnP-algorithms. Hence, the results from these algorithms, though empirically outstanding, are not well-defined, in the sense of, being a minimizer of a Variational problem. In this paper, we address this question of ``well-definedness", but from a different angle. We explain these algorithms from the viewpoint of a semi-iterative regularization method. In addition, we expand the family of regularized solutions, corresponding to the classical semi-iterative methods, to further generalize the explainability of these algorithms, as well as, enhance the recovery process. We conclude with several numerical results which validate the developed theories and reflect the improvements over the traditional PnP-algorithms, such as ADMM-PnP and FISTA-PnP.


翻译:众所周知, 反面的问题是不正确的, 要有意义地解决这些问题, 就必须采用正规化方法。 传统上, 最受欢迎的正规化方法是变式型方法, 即惩罚/限制功能最小化。 近几年来, 典型的正规化方法被所谓的“ 插子游戏” (PnP) 算法所取代, 该算法抄录了“ 精度梯度最小化” 进程, 如 ADMM 或 FISTA, 但是, 却用任何一般性的脱诺法。 但是, 与传统的近效梯度梯度方法不同, 理论分析和趋同结果对于这些PnP- algoritsm 方法来说是不够的。 因此, 这些算法的结果虽然在经验上是突出的, 但并没有很好地界定。 从这个意义上讲, 我们从一个不同的角度来解释这些算法。 我们从半理论化的正规化方法的角度来解释这些算法。 此外, 我们扩展了正规化解决办法的组合, 与典型的半纯化方法相对应的纯度方法相对, 传统- Paltitualalal- imalalalalationalationalationalationalation, as

0
下载
关闭预览

相关内容

专知会员服务
20+阅读 · 2021年7月28日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
已删除
将门创投
5+阅读 · 2019年3月29日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年8月16日
Arxiv
0+阅读 · 2021年8月13日
Arxiv
11+阅读 · 2021年3月25日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
VIP会员
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
已删除
将门创投
5+阅读 · 2019年3月29日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员