In many parameter estimation problems, the exact model is unknown and is assumed to belong to a set of candidate models. In such cases, a predetermined data-based selection rule selects a parametric model from a set of candidates before the parameter estimation. The existing framework for estimation under model misspecification does not account for the selection process that led to the misspecified model. Moreover, in post-model-selection estimation, there are multiple candidate models chosen based on the observations, making the interpretation of the assumed model in the misspecified setting non-trivial. In this work, we present three interpretations to address the problem of non-Bayesian post-model-selection estimation as an estimation under model misspecification problem: the naive interpretation, the normalized interpretation, and the selective inference interpretation, and discuss their properties. For each of these interpretations, we developed the corresponding misspecified maximum likelihood estimator and the misspecified Cram$\acute{\text{e}}$r-Rao-type lower bound. The relations between the estimators and the performance bounds, as well as their properties, are discussed. Finally, we demonstrate the performance of the proposed estimators and bounds via simulations of estimation after channel selection. We show that the proposed performance bounds are more informative than the oracle Cram$\acute{\text{e}}$r-Rao Bound (CRB), where the third interpretation (selective inference) results in the lowest mean-squared-error (MSE) among the estimators.


翻译:暂无翻译

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Robust Losses for Decision-Focused Learning
Arxiv
0+阅读 · 2023年10月6日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员