基于深度学习的算法模型往往需要大量的标注数据,相对于自然场景图像来说,医学图像更难获取,且标注数据的成本和难度都更高。自监督学习能够利用未标注的数据进行模型的预训练,然后再利用有限的标注数据进行模型的微调(fine-tune)。一种自监督学习的变种模型“对比学习”,是一种高效的技术,能够学习到图像级别(image-level)的表征。本文提出的策略通过扩展对比学习框架在数据量较为局限(标注数据少)的医学标注数据中,利用半监督学习进行三维医学图像分割。具体来说:①提出了一种全新的对比学习策略,通过利用三维医学图像(特定领域)的结构相似性;②设计了一种局部对比损失以学习独特的局部特征表达,其在像素级图像分割(特定问题)中性能提升显著。作者应用该方法在三个医学数据集上进行了实验验证,实验设定使用较为有限的标注数据上进行训练(限定训练集的大小),与已提出的自监督和半监督学习方法相比,该方法对分割性能有大幅的提升。

成为VIP会员查看完整内容
43

相关内容

通过潜在空间的对比损失最大限度地提高相同数据样本的不同扩充视图之间的一致性来学习表示。对比式自监督学习技术是一类很有前途的方法,它通过学习编码来构建表征,编码使两个事物相似或不同
专知会员服务
41+阅读 · 2020年12月1日
【NeurIPS 2020】视觉和语言表示学习的大规模对抗性训练
专知会员服务
14+阅读 · 2020年10月27日
专知会员服务
45+阅读 · 2020年10月22日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
56+阅读 · 2020年9月15日
医学图像分割的深度学习解决方案综述
专知会员服务
87+阅读 · 2020年2月14日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
CVPR 2019 Oral 论文解读 | 无监督域适应语义分割
AI科技评论
49+阅读 · 2019年5月29日
CVPR2019 | 医学影像:MIT 利用学习图像变换进行数据增强
计算机视觉life
26+阅读 · 2019年3月27日
CMU最新视觉特征自监督学习模型——TextTopicNet
人工智能头条
9+阅读 · 2018年7月29日
Arxiv
0+阅读 · 2020年12月1日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
FIGR: Few-shot Image Generation with Reptile
Arxiv
5+阅读 · 2019年1月8日
VIP会员
相关VIP内容
专知会员服务
41+阅读 · 2020年12月1日
【NeurIPS 2020】视觉和语言表示学习的大规模对抗性训练
专知会员服务
14+阅读 · 2020年10月27日
专知会员服务
45+阅读 · 2020年10月22日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
56+阅读 · 2020年9月15日
医学图像分割的深度学习解决方案综述
专知会员服务
87+阅读 · 2020年2月14日
微信扫码咨询专知VIP会员