In this work, we present Eformer - Edge enhancement based transformer, a novel architecture that builds an encoder-decoder network using transformer blocks for medical image denoising. Non-overlapping window-based self-attention is used in the transformer block that reduces computational requirements. This work further incorporates learnable Sobel-Feldman operators to enhance edges in the image and propose an effective way to concatenate them in the intermediate layers of our architecture. The experimental analysis is conducted by comparing deterministic learning and residual learning for the task of medical image denoising. To defend the effectiveness of our approach, our model is evaluated on the AAPM-Mayo Clinic Low-Dose CT Grand Challenge Dataset and achieves state-of-the-art performance, $i.e.$, 43.487 PSNR, 0.0067 RMSE, and 0.9861 SSIM. We believe that our work will encourage more research in transformer-based architectures for medical image denoising using residual learning.


翻译:在这项工作中,我们展示了基于Eex - 边缘增强的变压器,这是一个利用变压器块建立编码器- 解码器网络以进行医学图像脱网的新结构。在减少计算要求的变压器块中,使用了不重叠窗口自留功能。这项工作还吸收了可学习的Sobel-Feldman操作员来提升图像的边缘,并提出了将它们融入我们结构中间层的有效方法。实验分析是通过比较确定学和剩余学习来进行医学图像脱网化任务。为了维护我们的方法的有效性,我们模型在AAPM-Mayo诊所低剂量CT大挑战数据集上进行了评估,并实现了最新性能,即43.487 PSNR、0.0067 RMSE和0.9861 SSIM。 我们相信,我们的工作将鼓励对基于变压器的模型进行更多的研究,以便利用剩余学习进行医学图像解析。

2
下载
关闭预览

相关内容

图像降噪是图像处理中的专业术语。现实中的数字图像在数字化和传输过程中常受到成像设备与外部环境噪声干扰等影响,称为含噪图像或噪声图像。减少数字图像中噪声的过程称为图像降噪,有时候又称为图像去噪。
专知会员服务
29+阅读 · 2021年7月30日
专知会员服务
60+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Arxiv
1+阅读 · 2021年11月8日
Arxiv
0+阅读 · 2021年11月5日
Arxiv
7+阅读 · 2020年3月1日
Arxiv
5+阅读 · 2018年10月11日
VIP会员
Top
微信扫码咨询专知VIP会员