Vessel segmentation is an essential task in many clinical applications. Although supervised methods have achieved state-of-art performance, acquiring expert annotation is laborious and mostly limited for two-dimensional datasets with a small sample size. On the contrary, unsupervised methods rely on handcrafted features to detect tube-like structures such as vessels. However, those methods require complex pipelines involving several hyper-parameters and design choices rendering the procedure sensitive, dataset-specific, and not generalizable. We propose a self-supervised method with a limited number of hyper-parameters that is generalizable across modalities. Our method uses tube-like structure properties, such as connectivity, profile consistency, and bifurcation, to introduce inductive bias into a learning algorithm. To model those properties, we generate a vector field that we refer to as a flow. Our experiments on various public datasets in 2D and 3D show that our method performs better than unsupervised methods while learning useful transferable features from unlabeled data. Unlike generic self-supervised methods, the learned features learn vessel-relevant features that are transferable for supervised approaches, which is essential when the number of annotated data is limited.


翻译:在许多临床应用中,船舶分离是一项基本任务。尽管受监督的方法已经达到最先进的性能,但获得专家说明是困难的,而且大多限于小样尺寸的二维数据集。相反,未经监督的方法依靠手工制作的特性来探测像管状结构,如船只等。然而,这些方法需要复杂的管道,涉及若干个超参数和设计选择,使程序敏感、特定数据集和不普遍适用。我们建议一种自监督的方法,拥有数量有限的超光度参数,可以跨越各种模式加以普及。我们的方法使用像管状结构的特性,例如连接性、剖面一致性和双形等,在学习算法中引入感化偏差。为了模拟这些特性,我们生成了一个我们称之为流动的矢量场。我们在2D和3D中的各种公共数据集的实验表明,我们的方法比未加标签的数据的有用可转让特性要好,我们从未加标签的自监督数据中学习。与通用的自我监督方法不同的是,所学到的与船舶相关的特性是可转让的特性,这些特性是受监管的方法中的重要数据。

0
下载
关闭预览

相关内容

专知会员服务
38+阅读 · 2021年3月29日
专知会员服务
60+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
4+阅读 · 2018年10月5日
VIP会员
Top
微信扫码咨询专知VIP会员