The problem of long-tailed recognition (LTR) has received attention in recent years due to the fundamental power-law distribution of objects in the real-world. Most recent works in LTR use softmax classifiers that have a tendency to correlate classifier norm with the amount of training data for a given class. On the other hand, Prototype classifiers do not suffer from this shortcoming and can deliver promising results simply using Nearest-Class-Mean (NCM), a special case where prototypes are empirical centroids. However, the potential of Prototype classifiers as an alternative to softmax in LTR is relatively underexplored. In this work, we propose Prototype classifiers, which jointly learn prototypes that minimize average cross-entropy loss based on probability scores from distances to prototypes. We theoretically analyze the properties of Euclidean distance based prototype classifiers that leads to stable gradient-based optimization which is robust to outliers. We further enhance Prototype classifiers by learning channel-dependent temperature parameters to enable independent distance scales along each channel. Our analysis shows that prototypes learned by Prototype classifiers are better separated than empirical centroids. Results on four long-tailed recognition benchmarks show that Prototype classifier outperforms or is comparable to the state-of-the-art methods.
翻译:近年来,由于实际世界中物体的基本权力法分布,长期识别问题引起了人们的关注。LTR最近的工作使用软式分类器,这些分类器倾向于将分类规范与某一类的培训数据量联系起来。另一方面,原型分类器并不因这一缺陷而受到影响,仅使用近距离-千兆米(NCM)就能带来有希望的结果,而Nearest-Clas-Mean(NCM)是原型是实证类的机器人的一个特殊案例。然而,原型分类器作为LTR软式30的替代物,其潜力相对较低。在这个工作中,我们建议采用原型分类器,根据距离到原型的概率分数,共同学习将平均跨作物损失降到最低的原型。我们从理论上分析以欧球分子为基础的原型分类器的特性,从而实现稳定的基于梯度的优化,而这种优化对外围体是强大的。我们进一步增强原型分类器的温度参数,以使每个频道的独立距离尺度得以实现。我们的分析表明,通过长期的原型分类方法,通过分解的原型的原型模型,可以比原型的原型的原型类的原型类的原型类的原型分类法表明,比原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型,比原型的原型的原型的原型的原型的原型的原型的原型,比原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型,比原型的原型的原型的原型的原型的原型的原型的原型的原型的原型比原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的原型的