Understanding the dynamics of functional brain connectivity patterns using noninvasive neuroimaging techniques is an important focus in human neuroscience. Vector autoregressive (VAR) processes and Granger causality analysis (GCA) have been extensively used for this purpose. While high-resolution multi-subject neuroimaging data are routinely collected now-a-days, the statistics literature on VAR models has remained heavily focused on small-to-moderate dimensional problems and single-subject data. Motivated by these issues, we develop a novel Bayesian random effects panel VAR model for multi-subject high-dimensional neuroimaging data. We begin with a single-subject model that structures the VAR coefficients as a three-way tensor, then reduces the dimensions by applying a Tucker tensor decomposition. A novel sparsity-inducing shrinkage prior allows data-adaptive rank and lag selection. We then extend the approach to a novel random model for multi-subject data that carefully avoids the dimensions getting exploded with the number of subjects but also flexibly accommodates subject-specific heterogeneity. We design a Markov chain Monte Carlo algorithm for posterior computation. Finally, GCA with posterior false discovery control is performed on the posterior samples. The method shows excellent empirical performance in simulation experiments. Applied to our motivating functional magnetic resonance imaging study, the approach allows the directional connectivity of human brain networks to be studied in fine detail, revealing meaningful but previously unsubstantiated cortical connectivity patterns.


翻译:利用非侵入性神经成像技术了解大脑连接功能模式的动态,这是人类神经科学的一个重要焦点。 病媒自反(VAR)进程和Granger因果分析(GCA)已被广泛用于此目的。 虽然现在每天例行收集高分辨率多主题神经成像数据,但VAR模型的统计文献仍然大量侧重于小到中度的维维度问题和单一主题数据。受这些问题的驱动,我们开发了一个新颖的Bayesian随机效应面板VAR模型,用于多主题高度神经成像数据。我们首先开发了一个单一主题模型,将VAR系数结构成三路导体,然后通过应用Tucker Exward分解法来降低其维度。 一种新颖的偏差感感-感缩缩学文献仍然允许数据适中级和慢度选择。 我们随后扩展了多主题数据的新随机模型,该模型可以小心避免在多个主题中爆炸性但灵活地适应特定主题的神经成像数据。 我们设计了一个单项的单题模型模型模型模型模型模型模型模型, 将VAR 系数系数系系系系为三向方向,然后通过TARVor develop eximalimal eximal eximalimalimalimalimalimalus exexeximalevationalviducolalmmmmmmmmmmmmex 进行我们的实验, 。

0
下载
关闭预览

相关内容

不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
73+阅读 · 2022年6月28日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
专知会员服务
159+阅读 · 2020年1月16日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
VIP会员
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员