医学影像是医疗健康中的重要工具,放射科医生经过高度培训,能够在医学图像中检测和描述疾病。然而,仅依赖人类的分析有其局限性:它可能耗时、变化大且难以扩展。自动化部分医学图像分析流程可以克服这些局限性,以支持和扩展临床医生和放射科医生的能力。在本文中,我们将重点研究深度学习在自动化医学图像分析中可能起到的转变性角色。我们将分割视为基于深度学习的图像分析的关键工具,并展示了如何在没有大量手动注释训练数据集的情况下,分割神经网络可以在许多医学图像分析任务上实现高性能。

我们首先描述了两种在标签数据有限的情况下训练医学图像分割神经网络的方法。在我们的第一种方法中,我们将弱监督适应于分割。在我们的第二种方法中,我们将数据增强、一致性正则化和伪标签融合在一个统一的半监督流程中。这些方法将多种有限标签训练方法融入到同一框架中,利用每种方法的优点实现高性能,同时保持标签负担低。接下来,我们评估了在多机构、多扫描仪、多疾病数据集上使用有限标签数据训练的网络在临床相关指标上的表现。我们发现,我们的半监督网络在某些泛化任务上比全监督网络(训练数据标签多100倍以上)表现更好,与人类注释者的一致性更强。然而,我们发现了标签效率方法表现不佳的数据子集。我们提出了一种针对我们半监督流程的主动学习扩展,以解决这些错误模式,使困难数据切片上的半监督性能提高18.5%。通过这种评估,我们了解了如何使用有限标签数据训练的网络在临床任务上的表现,它们与使用丰富标签数据训练的网络的比较,以及如何减轻错误模式。

最后,我们将标签高效的分割模型应用到更广泛的医学图像分析任务中。具体来说,我们展示了分割如何以及为什么可以使医学图像分类受益。我们首先分析了为什么在同一数据集和任务上,分割模型和分类模型可能达到不同的性能。然后,我们实现了使用分割模型对医学图像进行分类的方法,我们称之为"以分割为分类",并将这些方法与三个回顾性数据集上的传统分类进行比较。最后,我们利用我们的分析和实验总结了与标准分类相比,使用"以分割为分类"的优点,包括:改善样本效率,能够在标签图像更少的情况下(少一个数量级)提高性能,在低发病率类别和某些罕见子组中(最高提高161.1%的召回率);提高对假相关的鲁棒性(最高提高44.8%的鲁棒AUROC);以及提高模型的可解释性,评估和错误分析。这些结果表明,利用分割模型可以在常见设置中导致更高质量的医学图像分类器。总的来说,本文聚焦于将分割作为支持自动化医学图像分析的关键工具,并展示了如何训练分割网络,在没有大量标签负担的情况下,在许多图像分析任务上实现高性能。

成为VIP会员查看完整内容
52

相关内容

斯坦福大学(StanfordUniversity)位于加利福尼亚州,临近旧金山,占地35平方公里,是美国面积第二大的大学。它被公认为世界上最杰出的大学之一,相比美国东部的常春藤盟校,特别是哈佛大学、耶鲁大学,斯坦福大学虽然历史较短,但无论是学术水准还是其他方面都能与常春藤名校相抗衡。斯坦福大学企业管理研究所和法学院在美国是数一数二的,美国最高法院的9个大法官,有6个是从斯坦福大学的法学院毕业的。
【斯坦福博士论文】大模型(基础模型)现实应用,178页pdf
【斯坦福大学博士论文】深度学习医学图像解译,205页pdf
专知会员服务
52+阅读 · 2022年11月18日
【MIT博士论文】异构医疗数据表示学习,193页pdf
专知会员服务
52+阅读 · 2022年9月3日
专知会员服务
103+阅读 · 2021年7月17日
深度学习与医学图像分析
人工智能前沿讲习班
39+阅读 · 2019年6月8日
国家自然科学基金
21+阅读 · 2016年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
Arxiv
1+阅读 · 2023年7月30日
Conditional Prompt Learning for Vision-Language Models
Arxiv
13+阅读 · 2022年3月10日
Arxiv
11+阅读 · 2021年3月25日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
VIP会员
相关基金
国家自然科学基金
21+阅读 · 2016年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员