Projected kernel calibration is a newly proposed frequentist calibration method, which is asymptotic normal and semi-parametric. Its loss function is usually referred to as the PK loss function. In this work, we prove the uniform convergence of PK loss function and show that (1) when the sample size is large, any local minimum point and local maximum point of the $L_2$ loss between the true process and the computer model is a local minimum point of the PK loss function; (2) all the local minima of the PK loss function converge to the same value. These theoretical results imply that it is extremely hard for the projected kernel calibration to identify the global minimum of the $L_2$ loss, i.e. the optimal value of the calibration parameters. To solve this problem, a frequentist method which we term penalized projected kernel calibration method is suggested and analyzed in detail. We prove that the proposed method is as efficient as the projected kernel calibration method. Through an extensive set of numerical simulations, and a real-world case study, we show that the proposed calibration method can accurately estimate the calibration parameters. We also show that its performance compares favorably to other calibration methods regardless of the sample size.


翻译:预测的内核校准是一种新提出的中位校准方法,这是非现成的正常和半参数,其损失功能通常称为PK损失函数。在这项工作中,我们证明PK损失功能的统一趋同,并表明:(1) 当样本大小大时,真实过程和计算机模型之间任何当地最低点和美元2美元损失的当地最大点都是PK损失功能的一个当地最低点;(2) PK损失函数的所有当地微量值都汇合到同一值。这些理论结果表明,预测的内核校准功能很难确定$L_2美元损失的全球最低值,即校准参数的最佳值。为解决这一问题,我们建议并详细分析一种常用的方法,即对预测的内核校准方法加以处罚。我们证明,拟议的方法与预测的内核校准方法一样有效。通过一套广泛的数字模拟和真实世界案例研究,我们表明,拟议的校准方法能够准确地估计其他校准度参数的精确度,而不论是否精确校准。

0
下载
关闭预览

相关内容

损失函数,在AI中亦称呼距离函数,度量函数。此处的距离代表的是抽象性的,代表真实数据与预测数据之间的误差。损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。
专知会员服务
28+阅读 · 2021年8月2日
专知会员服务
50+阅读 · 2020年12月14日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
专知会员服务
159+阅读 · 2020年1月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
已删除
将门创投
10+阅读 · 2019年3月6日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年2月22日
Arxiv
0+阅读 · 2022年2月22日
Arxiv
0+阅读 · 2022年2月21日
VIP会员
相关VIP内容
专知会员服务
28+阅读 · 2021年8月2日
专知会员服务
50+阅读 · 2020年12月14日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
专知会员服务
159+阅读 · 2020年1月16日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
已删除
将门创投
10+阅读 · 2019年3月6日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员