Recently, deep learning models have achieved great success in computer vision applications, relying on large-scale class-balanced datasets. However, imbalanced class distributions still limit the wide applicability of these models due to degradation in performance. To solve this problem, this paper concentrates on the study of cross entropy: it mostly ignores output scores on incorrect classes. This work discovers that neutralizing predicted probabilities on incorrect classes helps improve the prediction accuracy for imbalanced image classification. This paper proposes a simple but effective loss named complement cross entropy based on this finding. The proposed loss makes the ground truth class overwhelm the other classes in terms of softmax probability, by neutralizing probabilities of incorrect classes, without additional training procedures. Along with it, this loss facilitates the models to learn key information especially from samples on minority classes. It ensures more accurate and robust classification results on imbalanced distributions. Extensive experiments on imbalanced datasets demonstrate the effectiveness of the proposed method compared to other state-of-the-art methods.


翻译:最近,深层次学习模型在计算机视觉应用方面取得了巨大成功,依靠大规模类平衡的数据集。然而,由于表现的退化,不平衡的阶级分布仍然限制这些模型的广泛适用性。为了解决这个问题,本文件集中研究交叉酶:它大都忽略了不正确的阶级的输出分数。这项工作发现,对不正确的阶级预测概率进行中和,有助于提高不平衡图像分类的预测准确性。本文件根据这一发现提出一个简单而有效的损失,称为交叉酶补充体。拟议的损失使得地面真理类在软体概率方面压倒其他阶级,办法是在不正确阶级的概率上保持中性,而没有额外的培训程序。除此以外,这一损失还有助于模型学习关键信息,特别是从少数民族阶级的样本中学习。它确保了不平衡分布的更准确和稳健的分类结果。关于不平衡的数据集的广泛实验表明,与其他最先进的方法相比,拟议的方法的有效性。

0
下载
关闭预览

相关内容

交叉熵(Cross Entropy)是Shannon信息论中一个重要概念,主要用于度量两个概率分布间的差异性信息。语言模型的性能通常用交叉熵和复杂度(perplexity)来衡量。交叉熵的意义是用该模型对文本识别的难度,或者从压缩的角度来看,每个词平均要用几个位来编码。
专知会员服务
95+阅读 · 2021年5月25日
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
非平衡数据集 focal loss 多类分类
AI研习社
33+阅读 · 2019年4月23日
一文道尽softmax loss及其变种
极市平台
14+阅读 · 2019年2月19日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Highway Networks For Sentence Classification
哈工大SCIR
4+阅读 · 2017年9月30日
Uncertainty-Aware Few-Shot Image Classification
Arxiv
1+阅读 · 2021年6月3日
Arxiv
7+阅读 · 2020年3月1日
Arxiv
12+阅读 · 2019年4月9日
VIP会员
相关VIP内容
相关资讯
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
非平衡数据集 focal loss 多类分类
AI研习社
33+阅读 · 2019年4月23日
一文道尽softmax loss及其变种
极市平台
14+阅读 · 2019年2月19日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Highway Networks For Sentence Classification
哈工大SCIR
4+阅读 · 2017年9月30日
Top
微信扫码咨询专知VIP会员