Lowering the radiation dose in computed tomography (CT) can greatly reduce the potential risk to public health. However, the reconstructed images from the dose-reduced CT or low-dose CT (LDCT) suffer from severe noise, compromising the subsequent diagnosis and analysis. Recently, convolutional neural networks have achieved promising results in removing noise from LDCT images; the network architectures used are either handcrafted or built on top of conventional networks such as ResNet and U-Net. Recent advance on neural network architecture search (NAS) has proved that the network architecture has a dramatic effect on the model performance, which indicates that current network architectures for LDCT may be sub-optimal. Therefore, in this paper, we make the first attempt to apply NAS to LDCT and propose a multi-scale and multi-level NAS for LDCT denoising, termed MANAS. On the one hand, the proposed MANAS fuses features extracted by different scale cells to capture multi-scale image structural details. On the other hand, the proposed MANAS can search a hybrid cell- and network-level structure for better performance. Extensively experimental results on three different dose levels demonstrate that the proposed MANAS can achieve better performance in terms of preserving image structural details than several state-of-the-art methods. In addition, we also validate the effectiveness of the multi-scale and multi-level architecture for LDCT denoising.


翻译:然而,从剂量减少的CT或低剂量CT(LDCT)中重建的图像可能受到严重噪音的影响,从而影响到随后的诊断和分析。最近,革命性神经网络在消除LDCT图像中的噪音方面取得了可喜的成果;所使用的网络结构不是手工制作的,就是建在ResNet和U-Net等常规网络之上。神经网络结构搜索(NAS)最近的进展证明,网络结构对模型性能产生了巨大影响,这表明目前LDCT的网络结构可能不尽理想。因此,我们首次尝试将NAS应用于LDCT,并提议为LDCT的分化(称为MAAS)提供多层次和多层次的NAS。一方面,拟议由不同规模的细胞提取的MANS引信特征,以获取多层次的图像结构细节。另一方面,拟议的MANAS系统可以搜索混合的细胞和网络级结构,这说明目前LDCT的网络结构可能不是最佳的,因此,我们首次尝试将NAS应用于最不发达国家系统结构的多种层次,从而在维护多层次上取得更好的业绩。

0
下载
关闭预览

相关内容

【如何做研究】How to research ,22页ppt
专知会员服务
108+阅读 · 2021年4月17日
专知会员服务
60+阅读 · 2020年3月19日
【论文】结构GANs,Structured GANs,
专知会员服务
14+阅读 · 2020年1月16日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
0+阅读 · 2021年5月13日
Arxiv
11+阅读 · 2019年4月15日
Arxiv
12+阅读 · 2018年9月5日
VIP会员
Top
微信扫码咨询专知VIP会员