While the major white matter tracts are of great interest to numerous studies in neuroscience and medicine, their manual dissection in larger cohorts from diffusion MRI tractograms is time-consuming, requires expert knowledge and is hard to reproduce. Tract orientation mapping (TOM) is a novel concept that facilitates bundle-specific tractography based on a learned mapping from the original fiber orientation distribution function (fODF) peaks to a list of tract orientation maps (also abbr. TOM). Each TOM represents one of the known tracts with each voxel containing no more than one orientation vector. TOMs can act as a prior or even as direct input for tractography. We use an encoder-decoder fully-convolutional neural network architecture to learn the required mapping. In comparison to previous concepts for the reconstruction of specific bundles, the presented one avoids various cumbersome processing steps like whole brain tractography, atlas registration or clustering. We compare it to four state of the art bundle recognition methods on 20 different bundles in a total of 105 subjects from the Human Connectome Project. Results are anatomically convincing even for difficult tracts, while reaching low angular errors, unprecedented runtimes and top accuracy values (Dice). Our code and our data are openly available.


翻译:虽然主要的白色物质毛片对神经科学和医学方面的许多研究非常感兴趣,但它们在传播MRI成像的较大组群中人工解剖是耗费时间的,需要专家知识,而且很难复制。 Tract方向映射(TOM)是一个新概念,它有助于根据从原始纤维方向分布功能(fODF)峰值中学得的图象绘制包状特定色谱,将其纳入一份绘制方向图(也是 abr. TOM ) 的列表中。 每个TOM 代表已知的每块有不超过一个方向矢量的 voxel 。 TOM 可以作为先前或甚至直接的成像绘图输入。 我们使用一个全导解码- 破坏器全导神经网络架构来学习所需的映射。 与以前用于重建具体捆绑图的概念相比, 它避免了各种繁琐的处理步骤, 如整个脑向映射、 地图注册或组合等。 我们把它与总共105个主题的20个艺术捆绑结方法的4个状态进行了比较。 TOM可以作为绘图的先前或直接输入。 。 。结果可以令人信服地令人信服地说服, 我们的精确度是史前定的, 和直径。

0
下载
关闭预览

相关内容

数学软件ACM事务处理(TOMS)的目的是交流有关数学软件开发、评估和使用的重要研究成果。此外,TOMS还出版了机器可读的计算机软件,这些软件被整合到ACM的算法中;这些软件可以用任何广泛使用的编程语言编写,但是考虑到广泛的可用性和在TOMS中发表的研究的适用性。在研究论文和软件中,TOMS都寻求具有持久价值的贡献,在这些贡献中,技术质量、与重要计算的相关性、兴趣和新颖性都是很高的,并且展示是有效的。官网链接:https://toms.acm.org/index.cfm
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
Structure Aware SLAM using Quadrics and Planes
Arxiv
4+阅读 · 2018年8月13日
VIP会员
相关资讯
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Top
微信扫码咨询专知VIP会员