In this work, we present Eformer - Edge enhancement based transformer, a novel architecture that builds an encoder-decoder network using transformer blocks for medical image denoising. Non-overlapping window-based self-attention is used in the transformer block that reduces computational requirements. This work further incorporates learnable Sobel-Feldman operators to enhance edges in the image and propose an effective way to concatenate them in the intermediate layers of our architecture. The experimental analysis is conducted by comparing deterministic learning and residual learning for the task of medical image denoising. To defend the effectiveness of our approach, our model is evaluated on the AAPM-Mayo Clinic Low-Dose CT Grand Challenge Dataset and achieves state-of-the-art performance, $i.e.$, 43.487 PSNR, 0.0067 RMSE, and 0.9861 SSIM. We believe that our work will encourage more research in transformer-based architectures for medical image denoising using residual learning.


翻译:在这项工作中,我们展示了基于Eex - 边缘增强的变压器,这是一个利用变压器块建立编码器- 解码器网络以进行医学图像脱网的新结构。在减少计算要求的变压器块中,使用了不重叠窗口自留功能。这项工作还吸收了可学习的Sobel-Feldman操作员来提升图像的边缘,并提出了将它们融入我们结构中间层的有效方法。实验分析是通过比较确定学和剩余学习来进行医学图像脱网化任务。为了维护我们的方法的有效性,我们模型在AAPM-Mayo诊所低剂量CT大挑战数据集上进行了评估,并实现了最新性能,即43.487 PSNR、0.0067 RMSE和0.9861 SSIM。 我们相信,我们的工作将鼓励对基于变压器的模型进行更多的研究,以便利用剩余学习进行医学图像解析。

1
下载
关闭预览

相关内容

图像降噪是图像处理中的专业术语。现实中的数字图像在数字化和传输过程中常受到成像设备与外部环境噪声干扰等影响,称为含噪图像或噪声图像。减少数字图像中噪声的过程称为图像降噪,有时候又称为图像去噪。
图像分割方法综述
专知会员服务
54+阅读 · 2020年11月22日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Arxiv
0+阅读 · 2022年1月11日
A survey on deep hashing for image retrieval
Arxiv
14+阅读 · 2020年6月10日
Arxiv
7+阅读 · 2020年3月1日
Arxiv
5+阅读 · 2018年10月11日
VIP会员
Top
微信扫码咨询专知VIP会员