Generalization capabilities of learning-based medical image segmentation across domains are currently limited by the performance degradation caused by the domain shift, particularly for ultrasound (US) imaging. The quality of US images heavily relies on carefully tuned acoustic parameters, which vary across sonographers, machines, and settings. To improve the generalizability on US images across domains, we propose MI-SegNet, a novel mutual information (MI) based framework to explicitly disentangle the anatomical and domain feature representations; therefore, robust domain-independent segmentation can be expected. Two encoders are employed to extract the relevant features for the disentanglement. The segmentation only uses the anatomical feature map for its prediction. In order to force the encoders to learn meaningful feature representations a cross-reconstruction method is used during training. Transformations, specific to either domain or anatomy are applied to guide the encoders in their respective feature extraction task. Additionally, any MI present in both feature maps is punished to further promote separate feature spaces. We validate the generalizability of the proposed domain-independent segmentation approach on several datasets with varying parameters and machines. Furthermore, we demonstrate the effectiveness of the proposed MI-SegNet serving as a pre-trained model by comparing it with state-of-the-art networks.


翻译:目前,基于学习的医疗图像分割算法在不同场景下存在着性能退化的问题。尤其是对于超声(US)成像来说,由于US图像质量严重依赖于调整良好的声学参数,这些参数会因超声检查者、设备和设置的不同而有所变化,因此US图像领域之间的分割几乎无法泛化。为了提高超声图像在不同领域中的泛化能力,本文提出了基于互信息(MI)的MI-SegNet框架,以显式地分离解剖特征和领域特征防止领域偏移带来的影响。我们使用两个编码器来提取相关特征,分别对于解剖和领域。分割只使用解剖学特征图进行预测。为了强制编码器学习有用的特征表示,我们在训练过程中采用了交叉重构方法。针对特定领域或解剖模式的变换可以指导编码器完成各自的特征提取任务。此外,受惩罚机制可以进一步促进特征空间的分离。我们在多个数据集中验证了所提出的跨领域独立分割方法的泛化能力,其中包含不同参数和不同设备的数据,同时通过与最先进的网络进行比较,证明了所提出的MI-SegNet作为预训练模型的有效性。

0
下载
关闭预览

相关内容

TPAMI 2021|VideoDG:首个视频领域泛化模型
专知会员服务
19+阅读 · 2021年12月31日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月9日
VIP会员
相关VIP内容
TPAMI 2021|VideoDG:首个视频领域泛化模型
专知会员服务
19+阅读 · 2021年12月31日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
相关基金
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员