众所周知,神经网络在直接使用输出标签分布生成不确定性度量时存在过度自信的问题。现有方法主要通过重新训练整个模型,赋予其不确定性量化能力,使学习到的模型在精度和不确定性预测方面同时达到预期的性能。然而,从头开始训练模型的计算成本很高,在许多情况下可能是不可行的。本文考虑一个更实际的事后不确定性学习设置,给出一个训练良好的基础模型,并专注于训练第二阶段的不确定性量化任务。本文提出一种新的贝叶斯元模型,以增强预训练模型的不确定性量化能力,有效且计算效率高。所提出的方法不需要额外的训练数据,足够灵活,可以量化不同的不确定性,并容易适应不同的应用设置,包括域外数据检测、错误分类检测和可信迁移学习。在多个代表性的图像分类基准上,证明了所提出的元模型方法的灵活性和在这些应用上的优越经验性能。

https://www.zhuanzhi.ai/paper/ce666840fd9361b6f02ab0f425f731c6

成为VIP会员查看完整内容
15

相关内容

【AAAI2023】图序注意力网络
专知会员服务
45+阅读 · 2022年11月24日
【伯克利博士论文】学习在动态环境中泛化,103页pdf
专知会员服务
71+阅读 · 2022年10月12日
【CMU博士论文】多视图上下文理解的知识增强表示学习
专知会员服务
34+阅读 · 2022年8月11日
【AAAI2022】注意力机制的快速蒙特卡罗近似
专知会员服务
19+阅读 · 2022年2月5日
【AAAI2022】通过多任务学习改进证据深度学习
专知会员服务
19+阅读 · 2021年12月21日
【AAAI2022】基于双流更新的视觉Transformer动态加速方法
专知会员服务
23+阅读 · 2021年12月11日
【AAAI2023】图序注意力网络
专知
5+阅读 · 2022年11月24日
【AAAI2022】跨域少样本图分类
专知
1+阅读 · 2022年1月22日
国家自然科学基金
22+阅读 · 2016年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年2月16日
Arxiv
0+阅读 · 2023年2月16日
Arxiv
0+阅读 · 2023年2月14日
Arxiv
0+阅读 · 2023年2月14日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Arxiv
26+阅读 · 2019年3月5日
Arxiv
15+阅读 · 2018年4月3日
VIP会员
相关VIP内容
【AAAI2023】图序注意力网络
专知会员服务
45+阅读 · 2022年11月24日
【伯克利博士论文】学习在动态环境中泛化,103页pdf
专知会员服务
71+阅读 · 2022年10月12日
【CMU博士论文】多视图上下文理解的知识增强表示学习
专知会员服务
34+阅读 · 2022年8月11日
【AAAI2022】注意力机制的快速蒙特卡罗近似
专知会员服务
19+阅读 · 2022年2月5日
【AAAI2022】通过多任务学习改进证据深度学习
专知会员服务
19+阅读 · 2021年12月21日
【AAAI2022】基于双流更新的视觉Transformer动态加速方法
专知会员服务
23+阅读 · 2021年12月11日
相关基金
国家自然科学基金
22+阅读 · 2016年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员