Overconfident predictions on out-of-distribution (OOD) samples is a thorny issue for deep neural networks. The key to resolve the OOD overconfidence issue inherently is to build a subset of OOD samples and then suppress predictions on them. This paper proposes the Chamfer OOD examples (CODEs), whose distribution is close to that of in-distribution samples, and thus could be utilized to alleviate the OOD overconfidence issue effectively by suppressing predictions on them. To obtain CODEs, we first generate seed OOD examples via slicing&splicing operations on in-distribution samples from different categories, and then feed them to the Chamfer generative adversarial network for distribution transformation, without accessing to any extra data. Training with suppressing predictions on CODEs is validated to alleviate the OOD overconfidence issue largely without hurting classification accuracy, and outperform the state-of-the-art methods. Besides, we demonstrate CODEs are useful for improving OOD detection and classification.


翻译:对分配范围外样品的过度自信预测是深神经网络的一个棘手问题。解决OOOD过度自信问题的关键在于建立一组OOD样本,然后抑制对这些样本的预测。本文件提议了Chamfer OOD样本(CODEs),其分布接近分配范围样本,从而可以通过抑制对OOOD过度自信问题进行抑制预测来有效缓解OOD过度自信问题。为了获得CODE,我们首先通过对不同类别的分配样本进行切分和喷洒操作生成OOOD样本,然后将其提供给Chamfer基因对抗网络进行配送转化,而无需获得任何额外数据。关于抑制CODEs预测的培训得到验证,以在基本上不损害分类准确性的情况下缓解OOOD过度信任问题,并超越最新的方法。此外,我们证明CODE对于改进OD的检测和分类很有帮助。

0
下载
关闭预览

相关内容

Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
108+阅读 · 2020年5月3日
因果图,Causal Graphs,52页ppt
专知会员服务
249+阅读 · 2020年4月19日
深度强化学习策略梯度教程,53页ppt
专知会员服务
183+阅读 · 2020年2月1日
已删除
将门创投
6+阅读 · 2019年6月10日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Impact of delay classes on the data structure in IOTA
Arxiv
0+阅读 · 2021年10月12日
Arxiv
38+阅读 · 2021年8月31日
Zero-Shot Object Detection
Arxiv
9+阅读 · 2018年7月27日
VIP会员
相关资讯
已删除
将门创投
6+阅读 · 2019年6月10日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员