In this paper, we propose mean squared error (MSE) loss with outlying label for class imbalanced classification. Cross entropy (CE) loss, which is widely used for image recognition, is learned so that the probability value of true class is closer to one by back propagation. However, for imbalanced datasets, the learning is insufficient for the classes with a small number of samples. Therefore, we propose a novel classification method using the MSE loss that can be learned the relationships of all classes no matter which image is input. Unlike CE loss, MSE loss is possible to equalize the number of back propagation for all classes and to learn the feature space considering the relationships between classes as metric learning. Furthermore, instead of the usual one-hot teacher label, we use a novel teacher label that takes the number of class samples into account. This induces the outlying label which depends on the number of samples in each class, and the class with a small number of samples has outlying margin in a feature space. It is possible to create the feature space for separating high-difficulty classes and low-difficulty classes. By the experiments on imbalanced classification and semantic segmentation, we confirmed that the proposed method was much improved in comparison with standard CE loss and conventional methods, even though only the loss and teacher labels were changed.


翻译:在本文中, 我们提议了一种新颖的分类方法, 使用 MSE 损失可以学习所有类别的关系, 任何图像都是不起作用的。 与 CE 损失不同, MSE 损失有可能使所有类的背传播数量相等, 并学习将各类之间的关系作为衡量学习的特征空间。 此外, 我们使用一种新颖的教师标签, 而不是通常的单热教师标签, 将类样本的数量考虑在内。 这诱导出一个取决于每类样本数量的外围标签, 而具有少量样本的类别在地貌空间中比值小。 与 CE 损失不同, MSE 损失有可能为将所有类的背传播数量等同起来, 并学习将各类之间的关系作为衡量学习的特征空间。 此外, 我们使用了一个新颖的教师标签, 而不是通常的单热教师标签, 将类样本的数量考虑在内。 这导致一个取决于每类样本数量的小类样本数量的外围标签, 在一个特性空间里, 少数类的样本具有超越的边缘空间。 有可能创建特性空间, 将高难度班级和低难度类之间的教学班进行区分, 并且通过常规分类和标签损失方法的对比, 我们的分类和标准的分类的分类的分类和标签分析方法被确认了。

0
下载
关闭预览

相关内容

专知会员服务
36+阅读 · 2021年7月7日
专知会员服务
90+阅读 · 2021年6月29日
专知会员服务
16+阅读 · 2021年5月21日
专知会员服务
33+阅读 · 2021年3月7日
最新《Transformers模型》教程,64页ppt
专知会员服务
314+阅读 · 2020年11月26日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
少标签数据学习,54页ppt
专知会员服务
199+阅读 · 2020年5月22日
度量学习中的pair-based loss
极市平台
65+阅读 · 2019年7月17日
非平衡数据集 focal loss 多类分类
AI研习社
33+阅读 · 2019年4月23日
已删除
将门创投
5+阅读 · 2018年11月27日
Arxiv
0+阅读 · 2021年9月3日
Arxiv
6+阅读 · 2020年9月29日
Arxiv
7+阅读 · 2020年3月1日
Teacher-Student Training for Robust Tacotron-based TTS
VIP会员
相关VIP内容
专知会员服务
36+阅读 · 2021年7月7日
专知会员服务
90+阅读 · 2021年6月29日
专知会员服务
16+阅读 · 2021年5月21日
专知会员服务
33+阅读 · 2021年3月7日
最新《Transformers模型》教程,64页ppt
专知会员服务
314+阅读 · 2020年11月26日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
少标签数据学习,54页ppt
专知会员服务
199+阅读 · 2020年5月22日
相关资讯
度量学习中的pair-based loss
极市平台
65+阅读 · 2019年7月17日
非平衡数据集 focal loss 多类分类
AI研习社
33+阅读 · 2019年4月23日
已删除
将门创投
5+阅读 · 2018年11月27日
Top
微信扫码咨询专知VIP会员