The loss function is a key component in deep learning models. A commonly used loss function for classification is the cross entropy loss, which is a simple yet effective application of information theory for classification problems. Based on this loss, many other loss functions have been proposed,~\emph{e.g.}, by adding intra-class and inter-class constraints to enhance the discriminative ability of the learned features. However, these loss functions fail to consider the connections between the feature distribution and the model structure. Aiming at addressing this problem, we propose a channel correlation loss (CC-Loss) that is able to constrain the specific relations between classes and channels as well as maintain the intra-class and the inter-class separability. CC-Loss uses a channel attention module to generate channel attention of features for each sample in the training stage. Next, an Euclidean distance matrix is calculated to make the channel attention vectors associated with the same class become identical and to increase the difference between different classes. Finally, we obtain a feature embedding with good intra-class compactness and inter-class separability.Experimental results show that two different backbone models trained with the proposed CC-Loss outperform the state-of-the-art loss functions on three image classification datasets.


翻译:损失函数是深层学习模型中的一个关键组成部分。 通常用于分类的一个损失函数是交叉酶损失,这是对分类问题信息理论的简单而有效的应用。 基于这一损失,提出了许多其他损失函数, ⁇ emph{ e. e. }, 增加了阶级内部和阶级之间的限制, 以提高学习特征的歧视性能力。 但是, 这些损失函数没有考虑到特征分布与模型结构之间的联系。 为了解决这一问题, 我们提议了一个频道相关损失( CC- Los), 能够限制类别和渠道之间的特定关系, 并维持阶级内部和阶级之间的分离性。 CC- Loss 使用一个频道关注模块, 以引起对培训阶段中每个样本特征的注意。 下一步, 计算出一个 Euclidean 远程矩阵, 使与同一类别相关的频道关注矢量变得相同, 并增加不同类别之间的差异。 最后, 我们获得了一个能够限制分类和渠道之间特定关系的频道相关损失( CC- LOS- sparable), 以及维持阶级内部和阶级之间的分离性。 分析结果显示两个不同的骨架模型, 显示两个经过培训的LE- sma 这样的模型, laction 。

0
下载
关闭预览

相关内容

损失函数,在AI中亦称呼距离函数,度量函数。此处的距离代表的是抽象性的,代表真实数据与预测数据之间的误差。损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
Python图像处理,366页pdf,Image Operators Image Processing in Python
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
机器学习速查手册,135页pdf
专知会员服务
338+阅读 · 2020年3月15日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
语义分割 | context relation
极市平台
8+阅读 · 2019年2月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】深度学习的数学解释
机器学习研究会
10+阅读 · 2017年12月15日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
Arxiv
4+阅读 · 2020年3月27日
Arxiv
9+阅读 · 2018年3月10日
Arxiv
3+阅读 · 2017年10月1日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员