Purpose: Segmentation of liver vessels from CT images is indispensable prior to surgical planning and aroused broad range of interests in the medical image analysis community. Due to the complex structure and low contrast background, automatic liver vessel segmentation remains particularly challenging. Most of the related researches adopt FCN, U-net, and V-net variants as a backbone. However, these methods mainly focus on capturing multi-scale local features which may produce misclassified voxels due to the convolutional operator's limited locality reception field. Methods: We propose a robust end-to-end vessel segmentation network called Inductive BIased Multi-Head Attention Vessel Net(IBIMHAV-Net) by expanding swin transformer to 3D and employing an effective combination of convolution and self-attention. In practice, we introduce the voxel-wise embedding rather than patch-wise embedding to locate precise liver vessel voxels, and adopt multi-scale convolutional operators to gain local spatial information. On the other hand, we propose the inductive biased multi-head self-attention which learns inductive biased relative positional embedding from initialized absolute position embedding. Based on this, we can gain a more reliable query and key matrix. To validate the generalization of our model, we test on samples which have different structural complexity. Results: We conducted experiments on the 3DIRCADb datasets. The average dice and sensitivity of the four tested cases were 74.8% and 77.5%, which exceed results of existing deep learning methods and improved graph cuts method. Conclusion: The proposed model IBIMHAV-Net provides an automatic, accurate 3D liver vessel segmentation with an interleaved architecture that better utilizes both global and local spatial features in CT volumes. It can be further extended for other clinical data.


翻译:目的 : 从CT图像中肝脏容器的分解在外科手术规划前是不可或缺的,在医学图像分析界引起了广泛的兴趣。由于结构复杂且对比背景低,自动肝脏容器分解仍然特别具有挑战性。大多数相关研究采用FCN、U-net和V-net变量作为骨干。然而,这些方法主要侧重于捕捉多种规模的本地特性,这些特性可能会由于电动操作员的有限地点接收场而产生误分类的氧化物。方法:我们建议建立一个称为BIAISed多层注意网(IBIMHAV-Net)的强大端对端对端船只分解网络的敏感度网络网络(IBIMHAV-Net)网络。由于结构结构结构结构结构结构结构结构结构结构,因此自动肝脏嵌入FCN、U-net和V-NV-net-net-net-net(IIT)的分解方法更加精确。我们建议采用感化的多偏向式多头项自读法方法,我们从缩的相对结构模型中学习了一种精确的相对分置的分解结果,我们用了一种分解的分解的分解方法,我们开始的分解的分解的分解的分解了。 我们的分解的分解的分解了一种分解的分解了一种分解的分解的分解的分解的分解。

0
下载
关闭预览

相关内容

专知会员服务
22+阅读 · 2021年9月20日
【ICLR2021】彩色化变换器,Colorization Transformer
专知会员服务
9+阅读 · 2021年2月9日
最新《Transformers模型》教程,64页ppt
专知会员服务
305+阅读 · 2020年11月26日
Transformer模型-深度学习自然语言处理,17页ppt
专知会员服务
102+阅读 · 2020年8月30日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
0+阅读 · 2022年1月10日
Arxiv
3+阅读 · 2021年10月14日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
19+阅读 · 2020年12月23日
VIP会员
Top
微信扫码咨询专知VIP会员