Image restoration remains a challenging task in image processing. Numerous methods tackle this problem, often solved by minimizing a non-smooth penalized co-log-likelihood function. Although the solution is easily interpretable with theoretic guarantees, its estimation relies on an optimization process that can take time. Considering the research effort in deep learning for image classification and segmentation, this class of methods offers a serious alternative to perform image restoration but stays challenging to solve inverse problems. In this work, we design a deep network, named DeepPDNet, built from primal-dual proximal iterations associated with the minimization of a standard penalized likelihood with an analysis prior, allowing us to take advantage of both worlds. We reformulate a specific instance of the Condat-Vu primal-dual hybrid gradient (PDHG) algorithm as a deep network with fixed layers. The learned parameters are both the PDHG algorithm step-sizes and the analysis linear operator involved in the penalization (including the regularization parameter). These parameters are allowed to vary from a layer to another one. Two different learning strategies: "Full learning" and "Partial learning" are proposed, the first one is the most efficient numerically while the second one relies on standard constraints ensuring convergence in the standard PDHG iterations. Moreover, global and local sparse analysis prior are studied to seek a better feature representation. We apply the proposed methods to image restoration on the MNIST and BSD68 datasets and to single image super-resolution on the BSD100 and SET14 datasets. Extensive results show that the proposed DeepPDNet demonstrates excellent performance on the MNIST and the more complex BSD68, BSD100, and SET14 datasets for image restoration and single image super-resolution task.


翻译:在图像处理过程中,图像恢复仍然是一项艰巨的任务。 有很多方法可以解决这个问题, 通常通过尽量减少非moth 受约束的共志类函数来解决这个问题。 虽然解决方案很容易用理论保证来解释, 但它的估算取决于一个需要时间的优化过程。 考虑到深层学习图像分类和分解的研究工作, 这一类方法为进行图像恢复提供了一个严肃的替代方法, 但仍具有解决反向问题的挑战性。 在这项工作中, 我们设计了一个深层网络, 名为 DeepPDNet, 由原始的双向预感性循环建立, 与在分析之前将标准受限的可能性最小化相关, 从而使我们能够利用两个世界。 我们重新配置了Condat- Vu 初流混合梯(PDHG) 算法的具体实例, 将PDH 算法的渐变大小与分析线性操作( 包括常规化参数) 。 这些参数允许从一个层次到另一个层次。 两种不同的学习策略是:“ 第二次深层学习, 和“ 部分学习” 精细的SDDDD 图像分析法, 和“ 最精细的精确的SDDA 分析法, 显示一个确保B 和最精密的恢复的SDG 和最精细的精确的SDA 的精确的SD 的SD 的精确的SDB 的精确的S, 的S 显示的SB 和最精度分析方法, 和最精确的SB 的SB 显示的精确性分析方法, 显示的SDDD 和最精确的精确的S, 显示的精确的精确的精确的精确的精确的精确的精确的精确的模型, 显示一个是提议的S 。

0
下载
关闭预览

相关内容

《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
已删除
将门创投
3+阅读 · 2019年4月25日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Arxiv
0+阅读 · 2022年2月18日
On Variance Estimation of Random Forests
Arxiv
0+阅读 · 2022年2月18日
Arxiv
10+阅读 · 2021年2月18日
Arxiv
7+阅读 · 2020年6月29日
Arxiv
3+阅读 · 2020年2月5日
Arxiv
5+阅读 · 2018年10月11日
VIP会员
相关资讯
已删除
将门创投
3+阅读 · 2019年4月25日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
相关论文
Arxiv
0+阅读 · 2022年2月18日
On Variance Estimation of Random Forests
Arxiv
0+阅读 · 2022年2月18日
Arxiv
10+阅读 · 2021年2月18日
Arxiv
7+阅读 · 2020年6月29日
Arxiv
3+阅读 · 2020年2月5日
Arxiv
5+阅读 · 2018年10月11日
Top
微信扫码咨询专知VIP会员