Current out-of-distribution detection approaches usually present special requirements (e.g., collecting outlier data and hyperparameter validation) and produce side effects (classification accuracy drop and slow/inefficient inferences). Recently, entropic out-of-distribution detection has been proposed as a seamless approach (i.e., a solution that avoids all the previously mentioned drawbacks). The entropic out-of-distribution detection solution comprises the IsoMax loss for training and the entropic score for out-of-distribution detection. The IsoMax loss works as a SoftMax loss drop-in replacement because swapping the SoftMax loss with the IsoMax loss requires no changes in the model's architecture or training procedures/hyperparameters. In this paper, we propose to perform what we call an isometrization of the distances used in the IsoMax loss. Additionally, we propose to replace the entropic score with the minimum distance score. Our experiments showed that these simple modifications increase out-of-distribution detection performance while keeping the solution seamless. Besides being competitive with or outperforming all major current approaches, our solution avoids all their current limitations in addition to being much easier to use, as just a simple loss replacement for training the neural network is required. Code available at https://github.com/dlmacedo/entropic-out-of-distribution-detection.


翻译:目前的分配外检测方法通常产生特殊要求(例如,收集数据外出和超参数验证),并产生副作用(分类精度下降和缓慢/低效/低效推算 ) 。最近,作为无缝方法(即避免上述所有弊端的一种解决办法),建议对分配外检测方法进行昆虫外检测方法,包括培训的IsoMax损失和分配外检测的百分数。IsoMax损失作为SoftMax损失的下降替换,因为将SoftMax损失与Isomax损失互换为一体,不需要改变模型的结构或培训程序/机能参数。在本文件中,我们提议对IsoMax损失中所使用的距离进行我们所称的缩影化。此外,我们提议用最小的距离评分来取代对分配外评分。我们的实验表明,这些简单的修改增加了分配外检测功能,同时保持解决方案的无缝合。除了与当前的主要标准竞争性之外,我们还可以使用所有主要的方法来避免当前的损失。

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年9月16日
专知会员服务
38+阅读 · 2020年9月6日
【复旦大学-SP2020】NLP语言模型隐私泄漏风险
专知会员服务
24+阅读 · 2020年4月20日
被忽略的Focal Loss变种
极市平台
29+阅读 · 2019年4月19日
已删除
将门创投
8+阅读 · 2019年1月4日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Generalized Out-of-Distribution Detection: A Survey
Arxiv
15+阅读 · 2021年10月21日
VIP会员
相关资讯
被忽略的Focal Loss变种
极市平台
29+阅读 · 2019年4月19日
已删除
将门创投
8+阅读 · 2019年1月4日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员