Reconstructing magnetic resonance (MR) images from undersampled data is a challenging problem due to various artifacts introduced by the under-sampling operation. Recent deep learning-based methods for MR image reconstruction usually leverage a generic auto-encoder architecture which captures low-level features at the initial layers and high-level features at the deeper layers. Such networks focus much on global features which may not be optimal to reconstruct the fully-sampled image. In this paper, we propose an Over-and-Under Complete Convolutional Recurrent Neural Network (OUCR), which consists of an overcomplete and an undercomplete Convolutional Recurrent Neural Network(CRNN). The overcomplete branch gives special attention in learning local structures by restraining the receptive field of the network. Combining it with the undercomplete branch leads to a network which focuses more on low-level features without losing out on the global structures. Extensive experiments on two datasets demonstrate that the proposed method achieves significant improvements over the compressed sensing and popular deep learning-based methods with less number of trainable parameters.


翻译:由于抽样不足的作业引进了各种文物,因此,重塑磁共振(MR)图像是一个具有挑战性的问题。最近为MR图像重建采用的深层学习方法通常会利用一种通用的自动编码结构,在初始层和深层层的高级特征中捕捉低层次特征。这种网络主要侧重于可能不适于重建全层图像的全球特征。在本文中,我们提议建立一个超低层和超层的全层常态神经网络(OUCR),其中包括一个过度完整和不完全的共振常态神经网络(CRNN),过分完善的分支通过限制网络的可容纳场,在学习当地结构方面给予特别关注。将其与不完全的分支结合起来,导致一个更侧重于低层次特征而不会失去全球结构的网络。对两个数据集的广泛实验表明,拟议的方法在压缩感测和广受欢迎的深层次学习方法方面,取得了显著的改进,而培训参数则较少。

0
下载
关闭预览

相关内容

剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
49+阅读 · 2021年1月20日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
我用MATLAB撸了一个2D LiDAR SLAM
计算机视觉life
4+阅读 · 2018年12月2日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
5+阅读 · 2018年3月30日
Arxiv
5+阅读 · 2018年1月17日
VIP会员
Top
微信扫码咨询专知VIP会员