High angular resolution diffusion imaging (HARDI) is a type of diffusion magnetic resonance imaging (dMRI) that measures diffusion signals on a sphere in q-space. It has been widely used in data acquisition for human brain structural connectome analysis. To more accurately estimate the structural connectome, dense samples in q-space are often acquired, potentially resulting in long scanning times and logistical challenges. This paper proposes a statistical method to select q-space directions optimally and estimate the local diffusion function from sparse observations. The proposed approach leverages relevant historical dMRI data to calculate a prior distribution to characterize local diffusion variability in each voxel in a template space. For a new subject to be scanned, the priors are mapped into the subject-specific coordinate and used to help select the best q-space samples. Simulation studies demonstrate big advantages over the existing HARDI sampling and analysis framework. We also applied the proposed method to the Human Connectome Project data and a dataset of aging adults with mild cognitive impairment. The results indicate that with very few q-space samples (e.g., 15 or 20), we can recover structural brain networks comparable to the ones estimated from 60 or more diffusion directions with the existing methods. n Connectome Project data demonstrate that our proposed method provides substantial advantages over its competitors.


翻译:高角分辨率扩散成像(HARDI)是一种类型的扩散磁共振成像(dMRI),用来测量在 Q- 空间范围内一个球体上的传播信号。它已被广泛用于用于人类大脑结构连接器分析的数据采集中。为了更准确地估计结构连接器,往往获得q- 空间中的密度样本,这可能导致长时间扫描和后勤方面的挑战。本文还提出一种统计方法,以最佳的方式选择q- 空间方向,并从稀少的观测中估计当地的扩散功能。拟议方法利用相关的历史 dMRI 数据来计算先前的分布,以辨别模板空间中每个 voxel 的当地扩散变异性特征。对于需要扫描的新对象,前几件被映入特定主题的坐标中,用于帮助选择最佳的q- 空间样本。模拟研究表明,现有的 HARDI 取样和分析框架有很大的优势。我们还将拟议方法应用于人类连接项目数据和有轻微认知缺陷的成年人数据集。结果显示,如果有很少的q- 空间样品(例如, 15 或 20 ),我们可以用非常少的分布式样本来计算出结构连接网络,则比现有的项目更具有相当的优势。

0
下载
关闭预览

相关内容

LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
基于 Carsim 2016 和 Simulink的无人车运动控制联合仿真(四)
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Arxiv
4+阅读 · 2021年2月15日
Arxiv
17+阅读 · 2019年3月28日
VIP会员
相关VIP内容
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
基于 Carsim 2016 和 Simulink的无人车运动控制联合仿真(四)
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Top
微信扫码咨询专知VIP会员