Building reliable machine learning systems requires that we correctly understand their level of confidence. Calibration measures the degree of accuracy in a model's confidence and most research in calibration focuses on techniques to improve an empirical estimate of calibration error, ECE_bin. We introduce a simulation framework that allows us to empirically show that ECE_bin can systematically underestimate or overestimate the true calibration error depending on the nature of model miscalibration, the size of the evaluation data set, and the number of bins. Critically, we find that ECE_bin is more strongly biased for perfectly calibrated models. We propose a simple alternative calibration error metric, ECE_sweep, in which the number of bins is chosen to be as large as possible while preserving monotonicity in the calibration function. Evaluating our measure on distributions fit to neural network confidence scores on CIFAR-10, CIFAR-100, and ImageNet, we show that ECE_sweep produces a less biased estimator of calibration error and therefore should be used by any researcher wishing to evaluate the calibration of models trained on similar datasets.


翻译:建立可靠的机器学习系统要求我们正确理解其信任度。校准测量模型信任度和大多数校准研究的准确度,重点是改进校准误差经验估计的技术,ECE_bin。我们引入了一个模拟框架,让我们能够从经验上表明,ECE_bin可以根据模型误差的性质、评价数据集的大小和垃圾箱的数量,系统地低估或高估校准误差。关键是,我们发现ECE_bin对校准无误的模型偏差更大。我们建议采用简单的校准误差指标,ECE_Sweep,其中选择了尽可能大的文件箱数量,同时保持校准功能的单一性。评估我们关于符合CFAR-10、CIFAR-100和图象网神经网络信任分数的分布情况,我们表明ECE_burp产生一个比较不偏差的校准误差估计器,因此,任何希望评价类似数据集所训练模型校准的研究人员都应该使用。

0
下载
关闭预览

相关内容

专知会员服务
22+阅读 · 2021年4月10日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
已删除
将门创投
3+阅读 · 2018年8月21日
Arxiv
0+阅读 · 2021年4月14日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
VIP会员
相关资讯
已删除
将门创投
3+阅读 · 2018年8月21日
Top
微信扫码咨询专知VIP会员