The aim of this paper is to firmly establish subjective fiducial inference as a rival to the more conventional schools of statistical inference, and to show that Fisher's intuition concerning the importance of the fiducial argument was correct. In this regard, methodology outlined in an earlier paper is modified, enhanced and extended to deal with general inferential problems in which various parameters are unknown. As a key part of what is put forward, the joint fiducial distribution of all the parameters of a given model is determined on the basis of the full conditional fiducial distributions of these parameters by using an analytical approach or a Gibbs sampling method, the latter of which does not require these conditional distributions to be compatible. Although the resulting theory is classified as being "subjective", this is essentially due to the argument that all probability statements made about fixed but unknown parameters must be inherently subjective. In particular, it is systematically argued that, in general, there is no need to place a great emphasis on the difference between the fiducial probabilities derived by using this theory of inference and objective probabilities. Some important examples of the application of this theory are presented.


翻译:本文的目的是牢固地确立主观推断,作为比较传统的统计推断学派的对立点,并表明Fisher关于理论重要性的直觉是正确的,在这方面,前一份文件概述的方法经过修改、加强和扩展,以处理各种参数未知的一般推断问题,作为所提意见的一个关键部分,特定模型所有参数的共同分配,是根据使用一种分析方法或Gibbs抽样方法,这些参数的完全有条件的分布来确定的,后者并不要求这些有条件分布相容。虽然由此得出的理论被归类为“主观性”,但主要由于关于固定但未知参数的所有概率说明都必须具有内在主观性的论点,特别是,系统地认为,一般而言,没有必要大力强调使用这种推论和客观概率的推论得出的概率差异。

0
下载
关闭预览

相关内容

专知会员服务
40+阅读 · 2020年9月6日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年4月17日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年6月1日
Arxiv
0+阅读 · 2021年5月30日
Arxiv
110+阅读 · 2020年2月5日
Arxiv
4+阅读 · 2018年4月26日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年4月17日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员