A novel class of methods for combining $p$-values to perform aggregate hypothesis tests has emerged that exploit the properties of heavy-tailed Stable distributions. These methods offer important practical advantages including robustness to dependence and better-than-Bonferroni scaleability, and they reveal theoretical connections between Bayesian and classical hypothesis tests. The harmonic mean $p$-value (HMP) procedure is based on the convergence of summed inverse $p$-values to the Landau distribution, while the Cauchy combination test (CCT) is based on the self-similarity of summed Cauchy-transformed $p$-values. The CCT has the advantage that it is analytic and exact. The HMP has the advantage that it emulates a model-averaged Bayes factor, is insensitive to $p$-values near 1, and offers multilevel testing via a closed testing procedure. Here I investigate whether other Stable combination tests can combine these benefits, and identify a new method, the L\'evy combination test (LCT). The LCT exploits the self-similarity of sums of L\'evy random variables transformed from $p$-values. Under arbitrary dependence, the LCT possesses better robustness than the CCT and HMP, with two-fold worst-case inflation at small significance thresholds. It controls the strong-sense familywise error rate through a multilevel test uniformly more powerful than Bonferroni. Simulations show that the LCT behaves like Simes' test in some respects, with power intermediate between the HMP and Bonferroni. The LCT represents an interesting and attractive addition to combined testing methods based on heavy-tailed distributions.


翻译:结合美元价值以进行总体假设测试的新型方法类别已经出现,它利用了重尾调稳定分布的特性。这些方法提供了重要的实际优势,包括依赖性强,比Bonferroni的可缩放性更好,它们揭示了巴伊西亚和古典假设测试之间的理论联系。调和平均美元价值(HMP)程序的基础是对美元价值与Landau分布的反正数值的趋同。而Couch组合测试(CCT)则以粗尾调变换的美元价值的自我相似性为基础。CCT的中间性功能优势在于它具有分析性和准确性。HMP的优势在于它模仿模型平均湾值与古典假设值之间的理论联系,它通过封闭测试程序提供多级测试。在这里,我调查其他稳定的混合测试能否结合这些好处,并找出一种新的方法,即LCCT变换值值值值值值值。LCT利用了最弱的自我-C-Cylanceral 和最强性硬性货币价值的LMvyral 测试方法,它展示了比Oral-ral-ral-lalalalalalalalalalal-lation roal rolal rol) 的较重的自我缩缩缩缩检验法。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
已删除
将门创投
7+阅读 · 2018年8月28日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关VIP内容
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
已删除
将门创投
7+阅读 · 2018年8月28日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员