In the field of semi-supervised medical image segmentation, the shortage of labeled data is the fundamental problem. How to effectively learn image features from unlabeled images to improve segmentation accuracy is the main research direction in this field. Traditional self-training methods can partially solve the problem of insufficient labeled data by generating pseudo labels for iterative training. However, noise generated due to the model's uncertainty during training directly affects the segmentation results. Therefore, we added sample-level and pixel-level uncertainty to stabilize the training process based on the self-training framework. Specifically, we saved several moments of the model during pre-training, and used the difference between their predictions on unlabeled samples as the sample-level uncertainty estimate for that sample. Then, we gradually add unlabeled samples from easy to hard during training. At the same time, we added a decoder with different upsampling methods to the segmentation network and used the difference between the outputs of the two decoders as pixel-level uncertainty. In short, we selectively retrained unlabeled samples and assigned pixel-level uncertainty to pseudo labels to optimize the self-training process. We compared the segmentation results of our model with five semi-supervised approaches on the public 2017 ACDC dataset and 2018 Prostate dataset. Our proposed method achieves better segmentation performance on both datasets under the same settings, demonstrating its effectiveness, robustness, and potential transferability to other medical image segmentation tasks. Keywords: Medical image segmentation, semi-supervised learning, self-training, uncertainty estimation


翻译:在半监督医学图像分割领域中,标记数据的不足是一个根本性问题。如何从未标记的图像中有效地学习图像特征,以提高分割精度是该领域的主要研究方向。传统的自我训练方法可以通过为迭代训练生成伪标签来部分解决标记数据不足的问题。然而,在训练过程中由于模型的不确定性产生的噪声直接影响分割结果。因此,我们基于自我训练框架添加了样本级和像素级不确定性以稳定训练过程。具体地,我们在预训练期间保存了模型的几个时刻,并使用它们在未标记样本上的预测之间的差异来估计该样本的样本级不确定性。然后,我们逐渐从容易到难的方式添加未标记样本进行训练。同时,我们添加了一个带有不同上采样方法的解码器来对分割网络进行解码,并使用两个解码器的输出之间的差异作为像素级不确定性。简而言之,我们选择性地重新训练未标记的样本,并将像素级不确定性分配给伪标签以优化自我训练过程。我们在公共的2017年ACDC数据集和2018年前列腺数据集上将我们模型的分割结果与五种半监督方法进行了比较。我们提出的方法在相同的设置下,在两个数据集上均获得了更好的分割性能,证明了其有效性、鲁棒性和潜在的转移能力到其他医学图像分割任务中。关键词:医学图像分割,半监督学习,自我训练,不确定性估计。

0
下载
关闭预览

相关内容

专知会员服务
42+阅读 · 2021年8月20日
基于深度学习的医学图像半监督分割
CVer
14+阅读 · 2020年9月24日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【泡泡一分钟】端到端的弱监督语义对齐
泡泡机器人SLAM
53+阅读 · 2018年4月5日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
12+阅读 · 2021年11月1日
VIP会员
相关VIP内容
专知会员服务
42+阅读 · 2021年8月20日
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员