Training neural networks using limited annotations is an important problem in the medical domain. Deep Neural Networks (DNNs) typically require large, annotated datasets to achieve acceptable performance which, in the medical domain, are especially difficult to obtain as they require significant time from expert radiologists. Semi-supervised learning aims to overcome this problem by learning segmentations with very little annotated data, whilst exploiting large amounts of unlabelled data. However, the best-known technique, which utilises inferred pseudo-labels, is vulnerable to inaccurate pseudo-labels degrading the performance. We propose a framework based on superpixels - meaningful clusters of adjacent pixels - to improve the accuracy of the pseudo labels and address this issue. Our framework combines superpixels with semi-supervised learning, refining the pseudo-labels during training using the features and edges of the superpixel maps. This method is evaluated on a multimodal magnetic resonance imaging (MRI) dataset for the task of brain tumour region segmentation. Our method demonstrates improved performance over the standard semi-supervised pseudo-labelling baseline when there is a reduced annotator burden and only 5 annotated patients are available. We report DSC=0.824 and DSC=0.707 for the test set whole tumour and tumour core regions respectively.


翻译:使用有限附加说明的培训神经网络是医疗领域的一个重要问题。深神经网络通常需要大量附加说明的数据集才能达到可接受的性能,而在医疗领域,由于需要专家放射学家投入大量时间,很难获得这种可接受性能。半监督的学习的目的是通过学习分解来克服这一问题,使用极少附加说明的数据,同时利用大量未贴标签的数据。然而,最著名的技术,即使用推断假标签,容易受到不准确的假标签损害性能。我们提议了一个以超级像素为基础的框架——有意义的相邻像素组群——以提高伪标签的准确性能并解决这一问题。我们的框架将超级像素与半监督的学习结合起来,利用超像素地图的特征和边缘来改进培训过程中的假标签。在使用大量未贴标签的数据时,该方法是利用用于脑肿瘤区域分解任务的多式磁共振成成像(MRI)数据集进行评估的。我们的方法显示,在标准半超标签的准类像素组群——即相邻的像团团团团团群—— 用来测量5个测试区域时,我们只能改进了标准半加注标的DSSC-28标准的癌症试验区域。

0
下载
关闭预览

相关内容

【NeurIPS2020】基于能量的分布外检测
专知会员服务
13+阅读 · 2020年10月10日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【Google AI】开源NoisyStudent:自监督图像分类
专知会员服务
54+阅读 · 2020年2月18日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
语义分割+视频分割开源代码集合
极市平台
35+阅读 · 2018年3月5日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Revisiting CycleGAN for semi-supervised segmentation
Arxiv
3+阅读 · 2019年8月30日
VIP会员
Top
微信扫码咨询专知VIP会员