Randomized experiments (trials) are the gold standard for making causal inferences because randomization removes systematic confounding and the need for assuming any data-generating (super-population) models. However, outcome misclassification (e.g. measurement error or reporting bias in binary outcomes) often exists in practice and even a few misclassified outcomes may distort a causal conclusion drawn from a randomized experiment. All existing approaches to outcome misclassification rely on some data-generating model and therefore may not be applicable to randomized experiments without additional strong assumptions. We propose a model-free and finite-population-exact framework for randomized experiments subject to outcome misclassification, which does not require adding any additional assumptions to a randomized experiment. A central quantity in our framework is "warning accuracy," defined as the threshold such that the causal conclusion drawn from the measured outcomes may differ from that based on the true outcomes if the accuracy of the measured outcomes did not surpass that threshold. We show how learning the warning accuracy and related information and a dual concept can benefit the design, analysis, and validation of a randomized experiment. We show that the warning accuracy can be computed efficiently (even for large datasets) by adaptively reformulating an integer quadratically constrained linear program with respect to the randomization design. Our framework covers both Fisher's sharp null and Neyman's weak null, works for a wide range of randomization designs, and can also be applied to observational studies adopting randomization-based inference. We apply our framework to a large randomized clinical trial of the prevention of prostate cancer.


翻译:随机性实验(审判)是因果推断的黄金标准,因为随机性实验消除了系统性混乱,并需要假定任何数据生成(超人口)模型。然而,结果分类错误(例如测量错误或二进制结果中报告偏差)往往在实践中存在,甚至少数错误分类结果可能扭曲随机性实验得出的因果关系结论。所有现有结果分类错误方法都依赖于某些数据生成模型,因此,如果没有更多强有力的假设,可能不适用于随机性实验。我们提议一个随机性实验的无模型和有限人口特征框架,但结果分类不正确,不需要在随机性试验中增加任何额外的假设。我们框架的一个核心数量是“警告准确性”,其定义是,从测量结果得出的因果关系结论可能与实际结果不同,如果测量结果的准确性没有超过这一阈值。我们展示了预警准确性和相关信息以及一个双重概念如何能够有利于随机性实验的设计、分析和验证。我们显示,在对结果随机性观测结果的随机性实验中,可以将警报性准确性精确性框架用于随机性测试,通过大规模数据设计模型测试来进行精确性测试。我们进行深度的模型设计设计设计,我们进行深度的深度设计,从而进行精确性测试。

0
下载
关闭预览

相关内容

机器学习系统设计系统评估标准
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Risk and optimal policies in bandit experiments
Arxiv
0+阅读 · 2022年4月18日
Arxiv
0+阅读 · 2022年4月17日
VIP会员
相关VIP内容
相关资讯
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员