Fitting regression models with many multivariate responses and covariates can be challenging, but such responses and covariates sometimes have tensor-variate structure. We extend the classical multivariate regression model to exploit such structure in two ways: first, we impose four types of low-rank tensor formats on the regression coefficients. Second, we model the errors using the tensor-variate normal distribution that imposes a Kronecker separable format on the covariance matrix. We obtain maximum likelihood estimators via block-relaxation algorithms and derive their asymptotic distributions. Our regression framework enables us to formulate tensor-variate analysis of variance (TANOVA) methodology. Application of our methodology in a one-way TANOVA layout enables us to identify cerebral regions significantly associated with the interaction of suicide attempters or non-attemptor ideators and positive-, negative- or death-connoting words. A separate application performs three-way TANOVA on the Labeled Faces in the Wild image database to distinguish facial characteristics related to ethnic origin, age group and gender.


翻译:适合多种变式反应和共变模式的回归模型可能具有挑战性,但这种反应和共变有时具有反动结构。我们扩展了古典多变回归模型,以以两种方式利用这种结构:首先,我们在回归系数上采用四种低级强变格式。第二,我们用异变正常分布模型错误,在共变矩阵上采用克伦列克相异格式。我们通过阻隔式松放算法获得最大可能性估计器,并得出其无症状分布。我们的回归框架使我们能够制定差异的异变分析(TANOVA)方法。在单向 TANOVA布局中应用我们的方法,使我们能够识别与自杀未遂者或非强制性思想家和非强制思想家以及积极、负或死亡一致词汇相互作用密切相关的大脑区域。一个单独的应用程序在野生图像数据库中对拉贝面面面面面三向 TANOVA,以区分与族裔血统、年龄和性别有关的面部特征。

0
下载
关闭预览

相关内容

专知会员服务
14+阅读 · 2021年5月21日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
已删除
将门创投
7+阅读 · 2019年3月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
lightgbm algorithm case of kaggle(上)
R语言中文社区
8+阅读 · 2018年3月20日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】Python机器学习生态圈(Scikit-Learn相关项目)
机器学习研究会
6+阅读 · 2017年8月23日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年5月23日
Arxiv
0+阅读 · 2021年5月21日
Arxiv
0+阅读 · 2021年5月20日
Arxiv
0+阅读 · 2021年5月20日
VIP会员
相关VIP内容
专知会员服务
14+阅读 · 2021年5月21日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
相关资讯
已删除
将门创投
7+阅读 · 2019年3月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
lightgbm algorithm case of kaggle(上)
R语言中文社区
8+阅读 · 2018年3月20日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】Python机器学习生态圈(Scikit-Learn相关项目)
机器学习研究会
6+阅读 · 2017年8月23日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员