Convolutional neural networks applied for real-world classification tasks need to recognize inputs that are far or out-of-distribution (OoD) with respect to the known or training data. To achieve this, many methods estimate class-conditional posterior probabilities and use confidence scores obtained from the posterior distributions. Recent works propose to use multivariate Gaussian distributions as models of posterior distributions at different layers of the CNN (i.e., for low- and upper-level features), which leads to the confidence scores based on the Mahalanobis distance. However, this procedure involves estimating probability density in high dimensional data using the insufficient number of observations (e.g. the dimensionality of features at the last two layers in the ResNet-101 model are 2048 and 1024, with ca. 1000 observations per class used to estimate density). In this work, we want to address this problem. We show that in many OoD studies in high-dimensional data, LOF-based (Local Outlierness-Factor) methods outperform the parametric, Mahalanobis distance-based methods. This motivates us to propose the nonparametric, LOF-based method of generating the confidence scores for CNNs. We performed several feasibility studies involving ResNet-101 and EffcientNet-B3, based on CIFAR-10 and ImageNet (as known data), and CIFAR-100, SVHN, ImageNet2010, Places365, or ImageNet-O (as outliers). We demonstrated that nonparametric LOF-based confidence estimation can improve current Mahalanobis-based SOTA or obtain similar performance in a simpler way.


翻译:用于真实世界分类任务的 convolutional 神经网络需要识别在已知或培训数据方面远至或超出分布范围的投入(OoD),为此,许多方法都估算了等级条件的事后概率,并使用了从事后分布中获得的信任分数。最近的工作提议使用多种变式高斯分布作为CNN不同层次(即低和上级特征)的红外分布模型,这导致基于Mahalanobis距离的可信度分数。然而,这一程序涉及利用观测数量不足(例如ResNet-101模型最后两个层次的特征的维度为2048和1024, 用于估计密度的每类观测量为1000)。 在这项工作中,我们想解决这个问题。 在基于高度数据、基于LOF的LOF和基于(地方局外向)的OOD研究中, 超过参数的高度数据密度。 Mahalanobisxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

0
下载
关闭预览

相关内容

因果推断,Causal Inference:The Mixtape
专知会员服务
106+阅读 · 2021年8月27日
专知会员服务
42+阅读 · 2021年4月2日
元学习(meta learning) 最新进展综述论文
专知会员服务
279+阅读 · 2020年5月8日
3D目标检测进展综述
专知会员服务
193+阅读 · 2020年4月24日
因果图,Causal Graphs,52页ppt
专知会员服务
248+阅读 · 2020年4月19日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
106页《深度CNN-目标检测》综述进展论文
专知
4+阅读 · 2018年9月30日
Relation Networks for Object Detection 论文笔记
统计学习与视觉计算组
16+阅读 · 2018年4月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
Arxiv
0+阅读 · 2021年12月6日
Arxiv
0+阅读 · 2021年12月2日
Arxiv
12+阅读 · 2019年4月9日
VIP会员
相关VIP内容
因果推断,Causal Inference:The Mixtape
专知会员服务
106+阅读 · 2021年8月27日
专知会员服务
42+阅读 · 2021年4月2日
元学习(meta learning) 最新进展综述论文
专知会员服务
279+阅读 · 2020年5月8日
3D目标检测进展综述
专知会员服务
193+阅读 · 2020年4月24日
因果图,Causal Graphs,52页ppt
专知会员服务
248+阅读 · 2020年4月19日
相关资讯
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
106页《深度CNN-目标检测》综述进展论文
专知
4+阅读 · 2018年9月30日
Relation Networks for Object Detection 论文笔记
统计学习与视觉计算组
16+阅读 · 2018年4月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
Top
微信扫码咨询专知VIP会员