In this work, we describe a new approach that uses deep neural networks (DNN) to obtain regularization parameters for solving inverse problems. We consider a supervised learning approach, where a network is trained to approximate the mapping from observation data to regularization parameters. Once the network is trained, regularization parameters for newly obtained data can be computed by efficient forward propagation of the DNN. We show that a wide variety of regularization functionals, forward models, and noise models may be considered. The network-obtained regularization parameters can be computed more efficiently and may even lead to more accurate solutions compared to existing regularization parameter selection methods. We emphasize that the key advantage of using DNNs for learning regularization parameters, compared to previous works on learning via optimal experimental design or empirical Bayes risk minimization, is greater generalizability. That is, rather than computing one set of parameters that is optimal with respect to one particular design objective, DNN-computed regularization parameters are tailored to the specific features or properties of the newly observed data. Thus, our approach may better handle cases where the observation is not a close representation of the training set. Furthermore, we avoid the need for expensive and challenging bilevel optimization methods as utilized in other existing training approaches. Numerical results demonstrate the potential of using DNNs to learn regularization parameters.


翻译:在这项工作中,我们描述了一种利用深神经网络(DNN)获得正规化参数以解决反向问题的新方法。我们考虑一种监督学习方法,即对网络进行培训,以将绘图从观测数据到正规化参数的绘图相近;一旦对网络进行培训,新获得的数据的正规化参数可以通过高效率的前沿传播DNN来计算。我们表明,可以考虑各种各样的正规化功能、前瞻性模型和噪音模型。网络支持的正规化参数可以更高效地计算,甚至可能导致与现有的正规化参数选择方法相比,更准确的解决方案。我们强调,与以前通过最佳实验设计或实证性海湾风险最小化学习的工程相比,使用DNA来学习正规化参数的主要优势更为普遍。也就是说,与其计算一套符合特定设计目标的最佳参数,DNNN-投入的正规化参数可以适合新观察到的数据的具体特征或特性。因此,我们的方法可以更好地处理那些观测结果不近于培训指标集的个案。此外,我们避免使用昂贵和具有挑战性的双级优化方法来学习其他培训方法。

0
下载
关闭预览

相关内容

Stabilizing Transformers for Reinforcement Learning
专知会员服务
56+阅读 · 2019年10月17日
初学者系列:推荐系统Wide & Deep Learning详解
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Robust Learning via Persistency of Excitation
Arxiv
0+阅读 · 2021年6月7日
Arxiv
9+阅读 · 2021年4月8日
Arxiv
7+阅读 · 2020年6月29日
Arxiv
5+阅读 · 2020年6月16日
Parsimonious Bayesian deep networks
Arxiv
5+阅读 · 2018年10月17日
VIP会员
相关资讯
初学者系列:推荐系统Wide & Deep Learning详解
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员