Purpose: Segmentation of liver vessels from CT images is indispensable prior to surgical planning and aroused broad range of interests in the medical image analysis community. Due to the complex structure and low contrast background, automatic liver vessel segmentation remains particularly challenging. Most of the related researches adopt FCN, U-net, and V-net variants as a backbone. However, these methods mainly focus on capturing multi-scale local features which may produce misclassified voxels due to the convolutional operator's limited locality reception field. Methods: We propose a robust end-to-end vessel segmentation network called Inductive BIased Multi-Head Attention Vessel Net(IBIMHAV-Net) by expanding swin transformer to 3D and employing an effective combination of convolution and self-attention. In practice, we introduce the voxel-wise embedding rather than patch-wise embedding to locate precise liver vessel voxels, and adopt multi-scale convolutional operators to gain local spatial information. On the other hand, we propose the inductive biased multi-head self-attention which learns inductive biased relative positional embedding from initialized absolute position embedding. Based on this, we can gain a more reliable query and key matrix. To validate the generalization of our model, we test on samples which have different structural complexity. Results: We conducted experiments on the 3DIRCADb datasets. The average dice and sensitivity of the four tested cases were 74.8% and 77.5%, which exceed results of existing deep learning methods and improved graph cuts method. Conclusion: The proposed model IBIMHAV-Net provides an automatic, accurate 3D liver vessel segmentation with an interleaved architecture that better utilizes both global and local spatial features in CT volumes. It can be further extended for other clinical data.


翻译:目的 : 从CT图像中肝脏容器的分解在外科手术规划前是不可或缺的,在医学图像分析界引起了广泛的兴趣。由于结构复杂且对比背景低,自动肝脏容器分解仍然特别具有挑战性。大多数相关研究采用FCN、U-net和V-net变量作为骨干。然而,这些方法主要侧重于捕捉多种规模的本地特性,这些特性可能会由于电动操作员的有限地点接收场而产生误分类的氧化物。方法:我们建议建立一个称为BIAISed多层注意网(IBIMHAV-Net)的强大端对端对端船只分解网络的敏感度网络网络(IBIMHAV-Net)网络。由于结构结构结构结构结构结构结构结构结构结构,因此自动肝脏嵌入FCN、U-net和V-NV-net-net-net-net(IIT)的分解方法更加精确。我们建议采用感化的多偏向式多头项自读法方法,我们从缩的相对结构模型中学习了一种精确的相对分置的分解结果,我们用了一种分解的分解的分解方法,我们开始的分解的分解的分解的分解了。 我们的分解的分解的分解了一种分解的分解了一种分解的分解的分解的分解的分解。

0
下载
关闭预览

相关内容

【Tutorial】计算机视觉中的Transformer,98页ppt
专知会员服务
143+阅读 · 2021年10月25日
专知会员服务
22+阅读 · 2021年9月20日
如何构建你的推荐系统?这份21页ppt教程为你讲解
专知会员服务
64+阅读 · 2021年2月12日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Transformer中的相对位置编码
AINLP
5+阅读 · 2020年11月28日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
DeepLab V3
计算机视觉战队
9+阅读 · 2018年4月2日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年1月24日
Arxiv
3+阅读 · 2020年4月29日
Arxiv
15+阅读 · 2020年2月5日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
VIP会员
相关资讯
Transformer中的相对位置编码
AINLP
5+阅读 · 2020年11月28日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
DeepLab V3
计算机视觉战队
9+阅读 · 2018年4月2日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2022年1月24日
Arxiv
3+阅读 · 2020年4月29日
Arxiv
15+阅读 · 2020年2月5日
Self-Attention Graph Pooling
Arxiv
5+阅读 · 2019年4月17日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Top
微信扫码咨询专知VIP会员