The multivariate normal linear model is one of the most widely employed models for statistical inference in applied research. Special cases include (multivariate) t testing, (M)AN(C)OVA, (multivariate) multiple regression, and repeated measures analysis. Statistical procedures for model selection where the models may have equality and order constraints on the model parameters of interest are limited however. This paper presents a default Bayes factor for this model selection problem. The default Bayes factor is based on generalized fractional Bayes methodology where different fractions are used for different observations and where the default prior is centered on the boundary of the constrained space under investigation. First, the method is fully automatic and therefore can be applied when prior information is weak or completely unavailable. Second, using group specific fractions, the same amount of information is used from each group resulting in a minimally informative default prior having a matrix Cauchy distribution, resulting in a consistent default Bayes factor. Third, numerical computation can be done using parallelization which makes it computationally cheap. Fourth, the evidence can be updated in a relatively simple manner when observing new data. Fifth, the selection criterion can be applied relatively straightforwardly in the presence of missing data that are missing at random. Applications for the social and behavioral sciences are used for illustration.


翻译:多变量普通线性模型是应用研究中最广泛采用的统计推断模型之一。特殊案例包括(多变量) t 测试, (M)AN(C)OVA, (多变量) 多重回归和重复测量分析。 模型选择的统计程序是有限的, 模型可能具有平等性, 对模型感兴趣的参数有秩序限制 。 本文为模型选择问题提供了一个默认的贝莱斯系数 。 默认的贝耶斯系数基于通用的分数贝斯方法, 该方法不同部分用于不同的观测, 并且默认的先前部分以调查中受限制空间的边界为中心 。 首先, 方法完全自动, 因此当先前的信息薄弱或完全不可用时可以应用。 其次, 使用集团特定部分, 使用相同数量的信息, 导致最小的信息默认值, 从而形成一个一致的默认 Bayes 系数 。 第三, 数字计算方法可以用平行法进行, 使得计算成本低。 第四, 证据可以在观察新数据时以相对简单的方式更新。 第五, 选择标准可以在缺少的社会科学中相对直接地应用。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
4+阅读 · 2018年3月23日
Arxiv
3+阅读 · 2018年2月24日
Arxiv
3+阅读 · 2018年1月31日
VIP会员
相关VIP内容
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员