Optimal decision making requires that classifiers produce uncertainty estimates consistent with their empirical accuracy. However, deep neural networks are often under- or over-confident in their predictions. Consequently, methods have been developed to improve the calibration of their predictive uncertainty both during training and post-hoc. In this work, we propose differentiable losses to improve calibration based on a soft (continuous) version of the binning operation underlying popular calibration-error estimators. When incorporated into training, these soft calibration losses achieve state-of-the-art single-model ECE across multiple datasets with less than 1% decrease in accuracy. For instance, we observe an 82% reduction in ECE (70% relative to the post-hoc rescaled ECE) in exchange for a 0.7% relative decrease in accuracy relative to the cross entropy baseline on CIFAR-100. When incorporated post-training, the soft-binning-based calibration error objective improves upon temperature scaling, a popular recalibration method. Overall, experiments across losses and datasets demonstrate that using calibration-sensitive procedures yield better uncertainty estimates under dataset shift than the standard practice of using a cross entropy loss and post-hoc recalibration methods.


翻译:最佳决策要求分类者提出与其经验准确性相符的不确定性估计。然而,深神经网络在预测中往往不够自信或过于自信。因此,已经开发了方法来改进培训和热后期间预测不确定性的校准。在这项工作中,我们提议了不同的损失,以基于大众校准-eror测距仪基础的软(连续)版本的校准改进校准。当纳入培训时,这些软校准损失在多个数据集中达到最先进的单一模型的欧洲经委会,精确度下降不到1%。例如,我们观察到欧洲经委会减少了82%(相对于热后重新标定的欧洲经委会减少70%),以换取相对于CIFAR-100的交叉星基基准的精确度下降0.7%。当纳入培训后,软计制制校准误差目标在温度缩放、大众校准方法下会改进。总体而言,对损失和数据设置的试验表明,使用校准性程序,在数据调整后,采用标准调整后,采用数据转换法,得出更好的不确定性估计数。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
已删除
创业邦杂志
5+阅读 · 2019年3月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2022年2月8日
Arxiv
4+阅读 · 2020年10月18日
Arxiv
27+阅读 · 2020年6月19日
VIP会员
相关资讯
已删除
创业邦杂志
5+阅读 · 2019年3月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员