Retinal vessel segmentation is a vital step for the diagnosis of many early eye-related diseases. In this work, we propose a new deep learning model, namely Channel Attention Residual U-Net (CAR-UNet), to accurately segment retinal vascular and non-vascular pixels. In this model, we introduced a novel Modified Efficient Channel Attention (MECA) to enhance the discriminative ability of the network by considering the interdependence between feature maps. On the one hand, we apply MECA to the "skip connections" in the traditional U-shaped networks, instead of simply copying the feature maps of the contracting path to the corresponding expansive path. On the other hand, we propose a Channel Attention Double Residual Block (CADRB), which integrates MECA into a residual structure as a core structure to construct the proposed CAR-UNet. The results show that our proposed CAR-UNet has reached the state-of-the-art performance on three publicly available retinal vessel datasets: DRIVE, CHASE DB1 and STARE.[*Corresponding author This work was supported by the China Scholarship Council, the Stipendium Hungaricum Scholarship, the National Natural Science Foundation of China under Grants 62062040, and Chinese Postdoctoral Science Foundation 2019M661117.]


翻译:在这项工作中,我们提出了一个新的深层次学习模式,即CAR-UNet(CAR-UNet),以准确分割视网膜血管和无血管像素。在这个模式中,我们引入了一个新的改良高效通道关注(MECA),以通过考虑地貌图之间的相互依存关系,提高网络的歧视性能力。一方面,我们将MECA应用到传统U型网络中的“斯基普连接”上,而不是简单地复制承包路径的地貌图到相应的扩展路径。另一方面,我们提出了将频道关注双残留块(CADRB),将MECA纳入一个残留结构,作为建设拟议的CAR-UNet的核心结构。结果显示,我们拟议的CAR-UNet在三个公开提供的雷端船舶数据集:DVIV、CHASE DB1和STARE。 [*Correposinginging the producal Descrial Developal Pasional Foundal Instital Instital 20619]中国科学基金会的这项工作得到了中国2060年奖学金理事会的支持。

0
下载
关闭预览

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
【Manning新书】现代Java实战,592页pdf
专知会员服务
99+阅读 · 2020年5月22日
一文带你读懂 SegNet(语义分割)
AI研习社
19+阅读 · 2019年3月9日
【泡泡一分钟】基于视频修复的时空转换网络
泡泡机器人SLAM
5+阅读 · 2018年12月30日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
Arxiv
8+阅读 · 2018年5月15日
VIP会员
相关VIP内容
【Manning新书】现代Java实战,592页pdf
专知会员服务
99+阅读 · 2020年5月22日
Top
微信扫码咨询专知VIP会员