Low-dose computed tomography (CT) images suffer from noise and artifacts due to photon starvation and electronic noise. Recently, some works have attempted to use diffusion models to address the over-smoothness and training instability encountered by previous deep-learning-based denoising models. However, diffusion models suffer from long inference times due to the large number of sampling steps involved. Very recently, cold diffusion model generalizes classical diffusion models and has greater flexibility. Inspired by the cold diffusion, this paper presents a novel COntextual eRror-modulated gEneralized Diffusion model for low-dose CT (LDCT) denoising, termed CoreDiff. First, CoreDiff utilizes LDCT images to displace the random Gaussian noise and employs a novel mean-preserving degradation operator to mimic the physical process of CT degradation, significantly reducing sampling steps thanks to the informative LDCT images as the starting point of the sampling process. Second, to alleviate the error accumulation problem caused by the imperfect restoration operator in the sampling process, we propose a novel ContextuaL Error-modulAted Restoration Network (CLEAR-Net), which can leverage contextual information to constrain the sampling process from structural distortion and modulate time step embedding features for better alignment with the input at the next time step. Third, to rapidly generalize to a new, unseen dose level with as few resources as possible, we devise a one-shot learning framework to make CoreDiff generalize faster and better using only a single LDCT image (un)paired with NDCT. Extensive experimental results on two datasets demonstrate that our CoreDiff outperforms competing methods in denoising and generalization performance, with a clinically acceptable inference time.


翻译:低剂量计算机断层扫描(CT)图像由于光子饥饿和电子噪声而受到噪声和伪影的影响。最近,一些工作尝试使用扩散模型解决先前基于深度学习的去噪模型所遇到的过度平滑和训练不稳定性问题。然而,由于涉及大量采样步骤,扩散模型的推断时间很长。非常近期,冷扩散模型推广了经典扩散模型,具有更大的灵活性。在冷扩散的启发下,本文提出了一种新型的COntextual eRror-modulated gEneralized Diffusion模型,用于低剂量CT(LDCT)去噪,称为CoreDiff。首先,CoreDiff利用LDCT图像来排除随机高斯噪声,并采用新颖的保持均值的退化算符来模拟CT退化的物理过程,通过使用信息丰富的LDCT图像作为采样过程的起点,显著减少采样步骤。第二,为了缓解由于采样过程中不完美的恢复操作导致的误差积累问题,我们提出了一种新颖的ContextuaL Error-modulAted Restoration网络(CLEAR-Net),它可以利用上下文信息来约束采样过程,从结构失真中进行调整,并调节时间步嵌入特征,以更好地对齐下一个时间步的输入。第三,为了快速泛化到一个新的、看不见的剂量水平,并尽可能少地使用资源,我们设计了一个一次性学习框架,使CoreDiff使用单个LDCT图像(不)与NDCT匹配,更快更好地进行泛化。两个数据集的广泛实验结果表明,我们的CoreDiff在去噪和泛化性能方面优于竞争方法,并具有临床可接受的推断时间。

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年6月12日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
22+阅读 · 2020年1月28日
浙大开源快速扩散语音合成模型FastDiff和ProDiff
PaperWeekly
0+阅读 · 2022年10月22日
生成扩散模型漫谈:最优扩散方差估计(下)
PaperWeekly
0+阅读 · 2022年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月25日
Arxiv
0+阅读 · 2023年5月23日
Arxiv
0+阅读 · 2023年5月23日
Arxiv
14+阅读 · 2022年8月25日
VIP会员
相关VIP内容
专知会员服务
31+阅读 · 2021年6月12日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
22+阅读 · 2020年1月28日
相关基金
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员