In this paper we propose a 2D deep residual Unet with 104 convolutional layers (DR-Unet104) for lesion segmentation in brain MRIs. We make multiple additions to the Unet architecture, including adding the 'bottleneck' residual block to the Unet encoder and adding dropout after each convolution block stack. We verified the effect of introducing the regularisation of dropout with small rate (e.g. 0.2) on the architecture, and found a dropout of 0.2 improved the overall performance compared to no dropout, or a dropout of 0.5. We evaluated the proposed architecture as part of the Multimodal Brain Tumor Segmentation (BraTS) 2020 Challenge and compared our method to DeepLabV3+ with a ResNet-V2-152 backbone. We found that the DR-Unet104 achieved a mean dice score coefficient of 0.8862, 0.6756 and 0.6721 for validation data, whole tumor, enhancing tumor and tumor core respectively, an overall improvement on 0.8770, 0.65242 and 0.68134 achieved by DeepLabV3+. Our method produced a final mean DSC of 0.8673, 0.7514 and 0.7983 on whole tumor, enhancing tumor and tumor core on the challenge's testing data. We produced a competitive lesion segmentation architecture, despite only 2D convolutions, having the added benefit that it can be used on lower power computers than a 3D architecture. The source code and trained model for this work is openly available at https://github.com/jordan-colman/DR-Unet104.


翻译:在本文中,我们提出一个2D深残余铀网,其中含有104个卷发层(DR-Unet104),用于脑部MRIs的损伤分化。我们为Unet结构增添了多项内容,包括在Unet编码器中添加“瓶颈”残余块,并在每个卷发区堆堆堆堆后增加辍学。我们核实了采用低比率(例如0.2)对辍学者进行常规化的影响,发现在结构中,0.2的辍学率比没有辍学者提高了总体绩效(DR-Unet104 ),或增加了0.5。我们评估了拟议的结构,作为2020年多模式脑图解分化(BRATS)的一部分。我们评估了2020年挑战,并比较了我们与DeepLabV3+和ResNet-V2-V2152主干脊的计算方法。我们发现,DR-U104在确认数据、整个肿瘤、加强肿瘤和肿瘤核心核心数据方面,只有0.8774和0.6834年的数值。我们的方法最终生成了DSC的模型,在2673年的模型测试中提高了核心数据。

0
下载
关闭预览

相关内容

图像分割方法综述
专知会员服务
54+阅读 · 2020年11月22日
【Nature-MI】可解释人工智能的药物发现
专知会员服务
44+阅读 · 2020年11月1日
专知会员服务
60+阅读 · 2020年3月19日
专知会员服务
109+阅读 · 2020年3月12日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
一文带你读懂 SegNet(语义分割)
AI研习社
19+阅读 · 2019年3月9日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
VIP会员
Top
微信扫码咨询专知VIP会员