Denoising is one of the most important data processing tasks and is generally a prerequisite for downstream image analysis in many fields. Despite their superior denoising performance, supervised deep denoising methods require paired noise-clean or noise-noise samples often unavailable in practice. On the other hand, unsupervised deep denoising methods such as Noise2Void and its variants predict masked pixels from their neighboring pixels in single noisy images. However, these unsupervised algorithms only work under the independent noise assumption while real noise distributions are usually correlated with complex structural patterns. Here we propose the first-of-its-kind feature similarity-based unsupervised denoising approach that works in a nonlocal and nonlinear fashion to suppress not only independent but also correlated noise. Our approach is referred to as Noise2Sim since different noisy sub-images with similar signals are extracted to form as many as possible training pairs so that the parameters of a deep denoising network can be optimized in a self-learning fashion. Theoretically, the theorem is established that Noise2Sim is equivalent to the supervised learning methods under mild conditions. Experimentally, Noise2Sim achieves excellent results on natural, microscopic, low-dose CT and photon-counting micro-CT images, removing image noise independent or not and being superior to the competitive denoising methods. Potentially, Noise2Sim would open a new direction of research and lead to the development of adaptive denoising tools in diverse applications.


翻译:冷却是最重要的数据处理任务之一,一般是在许多领域进行下游图像分析的先决条件。 尽管它们表现优异, 受监督的深度淡化方法需要配对的噪音清洁或噪声消音样本, 在实践中通常不存在。 另一方面, 不受监督的深度淡化方法, 如Nise2Void 及其变体, 预测其相邻的像素在单噪音图像中具有遮蔽的像素。 然而, 这些不受监督的算法只有在独立噪音假设下起作用, 而真正的稀释分布通常与复杂的结构模式相关。 我们在这里建议, 其同类特征基于非本地和非线性、 隐蔽的类似消音化方法, 不仅可以独立地抑制, 而且还可以关联相关的噪音。 我们的方法被称为 Noise2Simm 。 由于不同噪音的亚像素与类似信号的不同分像素被提取成尽可能多的培训配方, 这样深层淡化网络的参数才能在自学时被优化。 理论上, 以其类比性2 Sim2 和低级的图像应用可以实现高额的实验结果。 。 在监管的模型中, 和低度的实验中, 和低度的模型的实验性 将可以实现对等于 。

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
13+阅读 · 2021年7月20日
Arxiv
31+阅读 · 2021年3月29日
Arxiv
7+阅读 · 2018年5月23日
VIP会员
相关VIP内容
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员