Fundus photography is the primary method for retinal imaging and essential for diabetic retinopathy prevention. Automated segmentation of fundus photographs would improve the quality, capacity, and cost-effectiveness of eye care screening programs. However, current segmentation methods are not robust towards the diversity in imaging conditions and pathologies typical for real-world clinical applications. To overcome these limitations, we utilized contrastive self-supervised learning to exploit the large variety of unlabeled fundus images in the publicly available EyePACS dataset. We pre-trained an encoder of a U-Net, which we later fine-tuned on several retinal vessel and lesion segmentation datasets. We demonstrate for the first time that by using contrastive self-supervised learning, the pre-trained network can recognize blood vessels, optic disc, fovea, and various lesions without being provided any labels. Furthermore, when fine-tuned on a downstream blood vessel segmentation task, such pre-trained networks achieve state-of-the-art performance on images from different datasets. Additionally, the pre-training also leads to shorter training times and an improved few-shot performance on both blood vessel and lesion segmentation tasks. Altogether, our results showcase the benefits of contrastive self-supervised pre-training which can play a crucial role in real-world clinical applications requiring robust models able to adapt to new devices with only a few annotated samples.


翻译:基金摄影是视网膜成像的首要方法,也是糖尿病视网膜病原体预防必不可少的基本方法。基金照片的自动分解将提高眼睛护理筛查方案的质量、能力和成本效益。然而,目前的分解方法对于真实世界临床应用中典型的成像条件和病理的多样化并不十分健全。为了克服这些限制,我们利用对比式自我监督学习来利用公众可公开查阅的EyePACS数据集中大量未贴标签的基金图像。我们预先训练了一个U-Net的样本编码器,我们后来对一些视网膜容器和偏差分解数据集进行了微调。我们第一次展示了通过对比式自我监督学习,预先训练的网络可以识别血管容器、光碟、软盘和各种损伤,而没有提供任何标签。此外,在对下游血管分解模型进行微调时,这种预先训练的网络只能对不同数据集的图像进行最先进的性能表现。此外,在培训前的临床应用中,也只能通过短期的自我监督性能和自我训练,从而可以提高一个更精确的容器的自我训练阶段。

0
下载
关闭预览

相关内容

多标签学习的新趋势(2020 Survey)
专知会员服务
41+阅读 · 2020年12月6日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Learning Dynamic Routing for Semantic Segmentation
Arxiv
8+阅读 · 2020年3月23日
Deep learning for cardiac image segmentation: A review
Arxiv
21+阅读 · 2019年11月9日
Arxiv
6+阅读 · 2018年6月21日
VIP会员
Top
微信扫码咨询专知VIP会员