Numerous dual-energy CT (DECT) techniques have been developed in the past few decades. Dual-energy CT (DECT) statistical iterative reconstruction (SIR) has demonstrated its potential for reducing noise and increasing accuracy. Our lab proposed a joint statistical DECT algorithm for stopping power estimation and showed that it outperforms competing image-based material-decomposition methods. However, due to its slow convergence and the high computational cost of projections, the elapsed time of 3D DECT SIR is often not clinically acceptable. Therefore, to improve its convergence, we have embedded DECT SIR into a deep learning model-based unrolled network for 3D DECT reconstruction (MB-DECTNet) that can be trained in an end-to-end fashion. This deep learning-based method is trained to learn the shortcuts between the initial conditions and the stationary points of iterative algorithms while preserving the unbiased estimation property of model-based algorithms. MB-DECTNet is formed by stacking multiple update blocks, each of which consists of a data consistency layer (DC) and a spatial mixer layer, where the spatial mixer layer is the shrunken U-Net, and the DC layer is a one-step update of an arbitrary traditional iterative method. Although the proposed network can be combined with numerous iterative DECT algorithms, we demonstrate its performance with the dual-energy alternating minimization (DEAM). The qualitative result shows that MB-DECTNet with DEAM significantly reduces noise while increasing the resolution of the test image. The quantitative result shows that MB-DECTNet has the potential to estimate attenuation coefficients accurately as traditional statistical algorithms but with a much lower computational cost.
翻译:在过去几十年中,开发了无数双重能源CT(DECT)技术。双重能源CT(DECT)统计迭代重建(SIR)已经展示了它减少噪音和增加准确度的潜力。我们的实验室提出了联合统计DECT算法,以阻止电量估计,并表明它优于相互竞争的基于图像的材料分解方法。然而,由于其趋同速度缓慢,而且预测的计算成本很高,3DECT SIR(DECT)的过期时间往往不能在临床上被接受。因此,为了改进它的趋同,我们已将DECT SIR(D)纳入一个基于深层次学习模型的非滚动的网络网络,用于3D DECT(M-D) 传统数字网络重建(MB-DNet ) (MD) (MD) (MD) (MD-D) (D(D) (MD) (D(D) (D) (MD) (D) (SL-D) (SL) (D) (SL) (SL) (O-DL) (Orality Rality Ral-L) (ML) (O) (O) (O) (O) (O) (O) (O) (O) (O) 和(D(D) (D) (D(D) (D) (D) (D) (D) (D) (D) (D) (D) (D) (D) (D(D(D) (D) (D) (D) (D) (D) (D) (D) (D) (D) (D(D) (D(D) (D) (D) (D) (D) (D) ((D) (D) (D) (D) (D) (D) (D) (D) (D) (D) (D) (D) (D) (D) (D) (DVL) (DL) (O) (D) (D) (D) (DL) (D) (DL) (D) (D) (D) (D) ) (D) (D) (D) (D) (D) (D) (D) ((D) ((D) (D)