To bridge the gap between the source and target domains in unsupervised domain adaptation (UDA), the most common strategy puts focus on matching the marginal distributions in the feature space through adversarial learning. However, such category-agnostic global alignment lacks of exploiting the class-level joint distributions, causing the aligned distribution less discriminative. To address this issue, we propose in this paper a novel margin preserving self-paced contrastive Learning (MPSCL) model for cross-modal medical image segmentation. Unlike the conventional construction of contrastive pairs in contrastive learning, the domain-adaptive category prototypes are utilized to constitute the positive and negative sample pairs. With the guidance of progressively refined semantic prototypes, a novel margin preserving contrastive loss is proposed to boost the discriminability of embedded representation space. To enhance the supervision for contrastive learning, more informative pseudo-labels are generated in target domain in a self-paced way, thus benefiting the category-aware distribution alignment for UDA. Furthermore, the domain-invariant representations are learned through joint contrastive learning between the two domains. Extensive experiments on cross-modal cardiac segmentation tasks demonstrate that MPSCL significantly improves semantic segmentation performance, and outperforms a wide variety of state-of-the-art methods by a large margin.


翻译:为了缩小未受监督的领域适应(UDA)源和目标领域之间的差距,最常用的战略侧重于通过对抗性学习来匹配特征空间的边际分布;然而,这种类别不可知的全球匹配缺乏利用类级联合分布的优势,导致对等分布的差别性较小;为解决这一问题,我们在本文件中提议,为交叉式医学图象分割保留一种新颖的边际,保留自我取向对比学习(MPSCL)模式,这与在对比性学习中对对比性配对的传统构造不同,利用域适应性类别原型来构成正对和负样样配对。在逐步完善的语义原型的指导下,提议一种新的边际,保留对比性损失,以增进嵌入式代表空间的可分化性。为了加强对对比性学习的监督,在目标领域以自我取速的方式生成了更多信息化的假标签,从而有利于UDA的类别对等分布的对等性调整。此外,通过在两个领域之间联合对比性学习,利用域适应性分类式样样样模型来形成正对正和负样样配对。 提议,通过大规模跨式跨式的跨式空间段试验,通过大规模的跨式试验,展示式的跨式演制式演制,展示式的跨式的跨部任务。

0
下载
关闭预览

相关内容

【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
30+阅读 · 2020年4月23日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
14+阅读 · 2021年3月10日
Arxiv
3+阅读 · 2020年7月16日
VIP会员
Top
微信扫码咨询专知VIP会员