We propose a novel teacher-student model for semi-supervised multi-organ segmentation. In teacher-student model, data augmentation is usually adopted on unlabeled data to regularize the consistent training between teacher and student. We start from a key perspective that fixed relative locations and variable sizes of different organs can provide distribution information where a multi-organ CT scan is drawn. Thus, we treat the prior anatomy as a strong tool to guide the data augmentation and reduce the mismatch between labeled and unlabeled images for semi-supervised learning. More specifically, we propose a data augmentation strategy based on partition-and-recovery N$^3$ cubes cross- and within- labeled and unlabeled images. Our strategy encourages unlabeled images to learn organ semantics in relative locations from the labeled images (cross-branch) and enhances the learning ability for small organs (within-branch). For within-branch, we further propose to refine the quality of pseudo labels by blending the learned representations from small cubes to incorporate local attributes. Our method is termed as MagicNet, since it treats the CT volume as a magic-cube and N$^3$-cube partition-and-recovery process matches with the rule of playing a magic-cube. Extensive experiments on two public CT multi-organ datasets demonstrate the effectiveness of MagicNet, and noticeably outperforms state-of-the-art semi-supervised medical image segmentation approaches, with +7% DSC improvement on MACT dataset with 10% labeled images. Code is available at https://github.com/DeepMed-Lab-ECNU/MagicNet.


翻译:我们提出了一种新颖的教师-学生模型,用于半监督多器官分割。在教师-学生模型中,通常会在未标记数据上采用数据增强来规范教师和学生之间的一致训练。我们从一个关键角度入手,即不同器官的固定相对位置和可变大小可以提供多器官 CT 扫描所绘制的分布信息。因此,我们将先前的解剖作为一种强有力的工具来指导数据增强,并减少标记和未标记图像之间的不匹配,用于半监督学习。更具体地说,我们提出了一种基于分割和恢复 N$^3$ 正方体跨标记和未标记图像内的数据增强策略。我们的策略鼓励未标记图像从标记图像中学习相对位置的器官语义(跨分支),并增强小器官的学习能力(分支内)。对于分支内部分,我们进一步提出通过混合来自小正方体的学习表示以融合局部属性,从而改进伪标签的质量。我们的方法被称为 MagicNet,因为它将 CT 体积视为魔方,而 N$^3$ 正方体分割和恢复过程符合玩魔方的规则。我们在两个公共 CT 多器官数据集上进行了广泛的实验,证明了 MagicNet 的有效性,并且在有 10% 标记图像的 MACT 数据集上比最先进的半监督医学图像分割方法表现更好,Dice 系数提高了 7%。代码可在 https://github.com/DeepMed-Lab-ECNU/MagicNet 上获得。

0
下载
关闭预览

相关内容

CVPR 2022 Oral | 基于熵筛选的半监督三维旋转回归
专知会员服务
18+阅读 · 2022年4月18日
专知会员服务
90+阅读 · 2021年6月29日
专知会员服务
33+阅读 · 2021年3月7日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月19日
Arxiv
0+阅读 · 2023年5月19日
Arxiv
19+阅读 · 2020年7月21日
VIP会员
相关VIP内容
CVPR 2022 Oral | 基于熵筛选的半监督三维旋转回归
专知会员服务
18+阅读 · 2022年4月18日
专知会员服务
90+阅读 · 2021年6月29日
专知会员服务
33+阅读 · 2021年3月7日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员