Point estimators may not exist, need not be unique, and their distributions are not parameter invariant. Generalized estimators provide distributions that are parameter invariant, unique, and exist when point estimates do not. Comparing point estimators using variance is less useful when estimators are biased. A squared slope $\Lambda$ is defined that can be used to compare both point and generalized estimators and is unaffected by bias. Fisher information $I$ and variance are fundamentally different quantities: the latter is defined at a distribution that need not belong to a family, while the former cannot be defined without a family of distributions, $M$. Fisher information and $\Lambda$ are similar quantities as both are defined on the tangent bundle $T\!M$ and $I$ provides an upper bound, $\Lambda\le I$, that holds for all sample sizes -- asymptotics are not required. Comparing estimators using $\Lambda$ rather than variance supports Fisher's claim that $I$ provides a bound even in small samples. $\Lambda$-efficiency is defined that extends the efficiency of unbiased estimators based on variance. While defined by the slope, $\Lambda$-efficiency is simply $\rho^{2}$, the square of the correlation between estimator and score function.


翻译:点估计值可能不存在, 也不一定是独特的, 并且其分布量根本不同 。 一般估计值提供分布值, 参数不易变, 独特, 且在点估计不时存在。 使用差异比较点估计值在估计值有偏差时用处不大。 平方斜度 $\Lambda$ 定义可以用来比较点和通用估计值, 不受偏差的影响 。 Fisher 信息 $I 和 差异数量基本不同 : 后者定义的分布值不需要属于一个家庭, 而前者定义的分布值是不需要属于一个家庭的, 而前者定义的分布值是非分布式的, $M$。 Fishereral 和 $\\ Lambda$是相似的数量, 两者的定义都是相近的 $T\! m$ 和 $I 提供上限, $Lbda\ 美元, 所有的样本都持有 -- immptotictretime 。 使用美元而不是差异 支持 Fisheral $- dal developlexnal developmental laxldal lax lax lax the slax lax lax the lax lax lax lax lax lax lax lax lax lax lax lax lab ladal lab ladal ladal ladal lax ladal le ladal ladal ladal ladal le lad lex lex lex exb lex extrax lex lex lab lax lax lab extrax lex lex lex lex lex exal le le le le lab lab explab lab le le le lab lab le lab lab exb le le le le le le exal exal lab lab 美元 美元 美元 美元。

0
下载
关闭预览

相关内容

不可错过!700+ppt《因果推理》课程!杜克大学Fan Li教程
专知会员服务
69+阅读 · 2022年7月11日
不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
73+阅读 · 2022年6月28日
专知会员服务
50+阅读 · 2020年12月14日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium8
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年12月20日
VIP会员
相关资讯
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium8
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员