Deep learning-based semi-supervised learning (SSL) algorithms have led to promising results in medical images segmentation and can alleviate doctors' expensive annotations by leveraging unlabeled data. However, most of the existing SSL algorithms in literature tend to regularize the model training by perturbing networks and/or data. Observing that multi/dual-task learning attends to various levels of information which have inherent prediction perturbation, we ask the question in this work: can we explicitly build task-level regularization rather than implicitly constructing networks- and/or data-level perturbation-and-transformation for SSL? To answer this question, we propose a novel dual-task-consistency semi-supervised framework for the first time. Concretely, we use a dual-task deep network that jointly predicts a pixel-wise segmentation map and a geometry-aware level set representation of the target. The level set representation is converted to an approximated segmentation map through a differentiable task transform layer. Simultaneously, we introduce a dual-task consistency regularization between the level set-derived segmentation maps and directly predicted segmentation maps for both labeled and unlabeled data. Extensive experiments on two public datasets show that our method can largely improve the performance by incorporating the unlabeled data. Meanwhile, our framework outperforms the state-of-the-art semi-supervised medical image segmentation methods. Code is available at: https://github.com/Luoxd1996/DTC


翻译:深层次的半监督学习(SSL)算法导致在医疗图像分割方面产生了有希望的结果,并且能够通过利用未贴标签的数据减轻医生昂贵的注释。然而,文献中现有的大多数SSL算法倾向于通过干扰网络和/或数据来规范模式培训。我们观察到,多/双-任务学习涉及不同层次的信息,而这些信息具有内在的预测扰动性,我们在此工作中提出一个问题:我们能否明确为SSL建立任务层面的正规化,而不是隐含地为SSL建立网络和/或数据层面的透析和转换?为了回答这一问题,我们首次提出一个新的双任务-一致性半监督框架。具体地说,我们使用双任务深度的网络,共同预测具有像素断层图和对目标的测深层次代表。 级别代表制通过一个不同的任务变异层转换成一个近似的分解图。同时,我们为在二级的定点-一致性半监督框架中引入了双重的双重任务一致性结构化结构化。 将我们的数据模型和直接预测的精确化数据分析方法 将改进了我们现有的数据结构。

14
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
专知会员服务
109+阅读 · 2020年3月12日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
On Feature Normalization and Data Augmentation
Arxiv
15+阅读 · 2020年2月25日
Deep Co-Training for Semi-Supervised Image Segmentation
Revisiting CycleGAN for semi-supervised segmentation
Arxiv
3+阅读 · 2019年8月30日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员