We study the generation of prediction intervals in regression for uncertainty quantification. This task can be formalized as an empirical constrained optimization problem that minimizes the average interval width while maintaining the coverage accuracy across data. We strengthen the existing literature by studying two aspects of this empirical optimization. First is a general learning theory to characterize the optimality-feasibility tradeoff that encompasses Lipschitz continuity and VC-subgraph classes, which are exemplified in regression trees and neural networks. Second is a calibration machinery and the corresponding statistical theory to optimally select the regularization parameter that manages this tradeoff, which bypasses the overfitting issues in previous approaches in coverage attainment. We empirically demonstrate the strengths of our interval generation and calibration algorithms in terms of testing performances compared to existing benchmarks.


翻译:我们研究的是不确定性量化回归中的预测间隔的生成。 这项任务可以正式化为实验性限制优化问题,最大限度地减少平均间隔宽度,同时保持数据覆盖的准确性。 我们通过研究这一实验优化的两个方面加强现有文献。 首先,我们是一个一般性的学习理论,用以确定包括利普西茨连续性和VC下层等分级的最佳性能-可行性权衡,这体现在回归树和神经网络中。 第二,是一个校准机制和相应的统计理论,以最佳选择管理这一权衡的正规化参数,它绕过先前方法在覆盖实现方面的过大问题。 我们从经验上展示了我们间生成和校准算法与现有基准相比在测试性能方面的优势。

0
下载
关闭预览

相关内容

【ICML2020】图神经网络基准,53页ppt,NUS-Xavier Bresson
专知会员服务
56+阅读 · 2020年7月18日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
已删除
将门创投
3+阅读 · 2019年4月19日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
1+阅读 · 2021年4月20日
Arxiv
5+阅读 · 2020年6月16日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关VIP内容
【ICML2020】图神经网络基准,53页ppt,NUS-Xavier Bresson
专知会员服务
56+阅读 · 2020年7月18日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
已删除
将门创投
3+阅读 · 2019年4月19日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员