We consider equivariant estimation of location/scale parameters of a general bivariate distribution, under quite general conditions on underlying distributions and the loss function, when it is known apriori that these parameters satisfy a order restriction. This problem is broadly studied in the literature for specific probability models having independent marginals and specific loss functions. In most of these studies, sufficient conditions for inadmissibility of best location/scale equivariant estimators are provided. This paper generalizes these results by considering a quite general bivariate model and a quite general loss function. We provide sufficient conditions for inadmissibility of any location/scale equivariant estimator under general probability model (statistical dependent) and general loss function. We also provide some applications of the results obtained in this paper to specific probability models and loss functions that are not studied in the literature.


翻译:我们认为,在基本分布和损失功能的相当一般的条件下,在已知这些参数符合命令限制的情况下,对一般两变分布的地点/尺度参数进行等值估计,因为已知这些参数首先满足了命令限制;文献对具有独立的边际和具体损失功能的具体概率模型进行了广泛的研究;在大多数这些研究中,为不允许最佳位置/尺度等差估计机提供了充分的条件;本文件通过考虑相当一般的双变模式和相当一般的损失功能,概括了这些结果;我们为不允许采用一般概率模型(统计依赖)和一般损失功能的任何位置/尺度等差估计机提供了充分的条件;我们还对文献中未研究的具体概率模型和损失功能提供了本文中所获结果的一些应用。

0
下载
关闭预览

相关内容

损失函数,在AI中亦称呼距离函数,度量函数。此处的距离代表的是抽象性的,代表真实数据与预测数据之间的误差。损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。
专知会员服务
50+阅读 · 2020年12月14日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
一文理解Ranking Loss/Margin Loss/Triplet Loss
极市平台
16+阅读 · 2020年8月10日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Generalized Out-of-Distribution Detection: A Survey
Arxiv
15+阅读 · 2021年10月21日
A General and Adaptive Robust Loss Function
Arxiv
8+阅读 · 2018年11月5日
Arxiv
3+阅读 · 2018年2月24日
Arxiv
4+阅读 · 2017年12月25日
VIP会员
相关资讯
一文理解Ranking Loss/Margin Loss/Triplet Loss
极市平台
16+阅读 · 2020年8月10日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员