成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
一文理解Ranking Loss/Margin Loss/Triplet Loss
2020 年 8 月 10 日
极市平台
点击蓝字
关注我们
作者丨
土豆@知乎
来源丨https://zhuanlan.zhihu.com/p/158853633
本文已获授权,未经作者许可,不得二次转载。
前言
Ranking loss
在很多不同的领域,任务和神经网络结构(比如siamese net或者Triplet net)中被广泛地应用。其广泛应用但缺乏对其命名标准化导致了其拥有很多其他别名,比如对比损失Contrastive loss,边缘损失Margin loss,铰链损失hinge loss和我们常见的三元组损失Triplet loss等。
本文翻译自FesianXu(原文链接:
https://gombru.github.io/2019/04/03/ranking_loss/
),如有谬误,请提出指正,谢谢。
ranking loss函数:度量学习
不像其他损失函数,比如交叉熵损失和均方差损失函数,这些损失的设计目的就是学习如何去直接地预测标签,或者回归出一个值,又或者是在给定输入的情况下预测出一组值,这是在传统的分类任务和回归任务中常用的。ranking loss的目的是去预测输入样本之间的相对距离。这个任务经常也被称之为
度量学习
(metric learning)。
在训练集上使用ranking loss函数是非常灵活的,我们只需要一个可以衡量数据点之间的相似度度量就可以使用这个损失函数了。这个度量可以是二值的(相似/不相似)。比如,在一个人脸验证数据集上,我们可以度量某个两张脸是否属于同一个人(相似)或者不属于同一个人(不相似)。通过使用ranking loss函数,我们可以训练一个CNN网络去对这两张脸是否属于同一个人进行推断。(当然,这个度量也可以是连续的,比如余弦相似度。)
在使用ranking loss的过程中,我们首先从这两张(或者三张,见下文)输入数据中提取出特征,并且得到其各自的嵌入表达(embedded representation,译者:见[1]中关于数据嵌入的理解)。然后,我们定义一个距离度量函数用以度量这些表达之间的相似度,比如说欧式距离。最终,我们训练这个特征提取器,以对于特定的样本对(sample pair)产生特定的相似度度量。
尽管我们并不需要关心这些表达的具体值是多少,只需要关心样本之间的距离是否足够接近或者足够远离,但是这种训练方法已经被证明是可以在不同的任务中都产生出足够强大的表征的。
ranking loss的表达式
正如我们一开始所说的,ranking loss有着很多不同的别名,但是他们的表达式却是在众多设置或者场景中都是相同的并且是简单的。我们主要针对以下两种不同的设置,进行两种类型的ranking loss的辨析
使用一对的训练数据点(即是两个一组)
使用三元组的训练数据点(即是三个数据点一组)
这两种设置都是在训练数据样本中进行距离度量比较。
成对样本的ranking loss
Fig 2.1 成对样本ranking loss用以训练人脸认证的例子。在这个设置中,CNN的权重值是共享的。我们称之为Siamese Net。成对样本ranking loss还可以在其他设置或者其他网络中使用。
在这个设置中,由训练样本中采样到的正样本和负样本组成的两种样本对作为训练输入使用。正样本对
由两部分组成,一个锚点样本
和 另一个和之标签相同的样本
,这个样本
与锚点样本在我们需要评价的度量指标上应该是相似的(经常体现在标签一样);负样本对
由一个锚点样本
和一个标签不同的样本
组成,
在度量上应该和
不同。(体现在标签不一致)
现在,我们的目标就是学习出一个特征表征,这个表征使得正样本对中的度量距离
尽可能的小,而在负样本对中,这个距离应该要大于一个人为设定的超参数——阈值
。成对样本的ranking loss强制样本的表征在正样本对中拥有趋向于0的度量距离,而在负样本对中,这个距离则至少大于一个阈值。用
分别表示这些样本的特征表征,我们可以有以下的式子:
正
样
本
对
负
样
本
对
对于正样本对来说,这个loss随着样本对输入到网络生成的表征之间的距离的减小而减少,增大而增大,直至变成0为止。
对于负样本来说,这个loss只有在所有负样本对的元素之间的表征的距离都大于阈值
的时候才能变成0。当实际负样本对的距离小于阈值的时候,这个loss就是个正值,因此网络的参数能够继续更新优化,以便产生更适合的表征。这个项的loss最大值不会超过
,在
的时候取得。
这里设置阈值的目的是,当某个负样本对中的表征足够好,体现在其距离足够远的时候,就没有必要在该负样本对中浪费时间去增大这个距离了,因此进一步的训练将会关注在其他更加难分别的样本对中。
假设用
分别表示样本对两个元素的表征,
是一个二值的数值,在输入的是负样本对时为0,正样本对时为1,距离
是欧式距离,我们就能有最终的loss函数表达式:
三元组样本对的ranking loss
三元组样本对的ranking loss称之为triplet loss。在这个设置中,与二元组不同的是,输入样本对是一个从训练集中采样得到的三元组。这个三元组
由一个锚点样本
,一个正样本
,一个负样本
组成。其目标是锚点样本与负样本之间的距离
与锚点样本和正样本之间的距离
之差大于一个阈值
,可以表示为:
Fig 2.2 Triplet loss的例子,其中的CNN网络的参数是共享的。
在训练过程中,对于一个可能的三元组,我们的triplet loss可能有三种情况:
1、“
简单样本”的三元组(easy triplet)
。在这种情况中,在嵌入空间(译者:指的是以嵌入特征作为表征的欧几里德空间,空间的每个基底都是一个特征维,一般是赋范空间)中,对比起正样本来说,负样本和锚点样本已经有足够的距离了(即是大于
)。此时loss为0,网络参数将不会继续更新。
2、
“难样本”的三元组(hard triplet)
。在这种情况中,负样本比起正样本,更接近锚点样本,此时loss为正值(并且比
大),网络可以继续更新。
3、
“半难样本”的三元组(semi-hard triplet)
。在这种情况下,负样本到锚点样本的距离比起正样本来说,虽然是大于后者,但是并没有大于设定的阈值
,此时loss仍然为正值,但是小于
,此时网络可以继续更新。
Fig 2.3 三元组可能的情况。
负样本的挑选
在训练中使用Triplet loss的一个重要选择就是我们需要对负样本进行挑选,称之为
负样本选择(negative selection)或者三元组采集(triplet mining)
。选择的策略会对训练效率和最终性能结果有着重要的影响。一个明显的策略就是:简单的三元组应该尽可能被避免采样到,因为其loss为0,对优化并没有任何帮助。
第一个可供选择的策略是
离线三元组采集(offline triplet mining)
,这意味着在训练的一开始或者是在每个世代(epoch)之前,就得对每个三元组进行定义(也即是采样)。第二种策略是
在线三元组采集(online triplet mining)
,这种方案意味着在训练中的每个批次(batch)中,都得对三元组进行动态地采样,这种方法经常具有更高的效率和更好的表现。
然而,最佳的负样本采集方案是高度依赖于任务特性的。但是在本篇文中不会在此深入讨论,因为本文只是对ranking loss的不同别名的综述并且讨论而已。可以参考[2]以对负样本采样进行更深的了解。
ranking loss的别名们
ranking loss家族正如以上介绍的,在不同的应用中都有广泛应用,然而其表达式都是大同小异的,虽然他们在不同的工作中名儿并不一致,这可真让人头疼。在这里,我尝试对为什么采用不同的别名,进行解释:
Ranking loss
:这个名字来自于信息检索领域,在这个应用中,我们期望训练一个模型对项目(items)进行特定的排序。比如文件检索中,对某个检索项目的排序等。
Margin loss
:这个名字来自于一个事实——我们介绍的这些loss都使用了边界去比较衡量样本之间的嵌入表征距离,见Fig 2.3
Contrastive loss
:我们介绍的loss都是在计算类别不同的两个(或者多个)数据点的特征嵌入表征。这个名字经常在成对样本的ranking loss中使用。但是我从没有在以三元组为基础的工作中使用这个术语去进行表达。
Triplet loss
:这个是在三元组采样被使用的时候,经常被使用的名字。
Hinge loss
:也被称之为
max-margin objective
。通常在分类任务中训练SVM的时候使用。他有着和SVM目标相似的表达式和目的:都是一直优化直到到达预定的边界为止。
Siamese 网络和Triplet网络
Siamese网络(Siamese Net)和Triplet网络(Triplet Net)分别是在成对样本和三元组样本 ranking loss采用的情况下训练模型。
Siamese网络
这个网络由两个相同并且共享参数的CNN网络(两个网络都有相同的参数)组成。这些网络中的每一个都处理着一个图像并且产生对于的特征表达。这两个表达之间会进行比较,并且计算他们之间的距离。然后,一个成对样本的ranking loss将会作为损失函数进行训练模型。
我们用
表示这个CNN网络,我们有Siamese网络的损失函数如:
Triplet网络
这个基本上和Siamese网络的思想相似,但是损失函数采用了Triplet loss,因此整个网络有三个分支,每个分支都是一个相同的,并且共享参数的CNN网络。同样的,我们能有Triplet网络的损失函数表达为:
在多模态检索中使用ranking loss
根据我的研究,在涉及到图片和文本的多模态检索任务中,使用了Triplet ranking loss。训练数据由若干有着相应文本标注的图片组成。任务目的是学习出一个特征空间,模型尝试将图片特征和相对应的文本特征都嵌入到这个特征空间中,使得可以将彼此的特征用于在跨模态检索任务中(举个例子,检索任务可以是给定了图片,去检索出相对应的文字描述,那么既然在这个特征空间里面文本和图片的特征都是相近的,体现在距离近上,那么就可以直接将图片特征作为文本特征啦~当然实际情况没有那么简单)。为了实现这个,我们首先从孤立的文本语料库中,学习到文本嵌入信息(word embeddings),可以使用如同Word2Vec或者GloVe之类的算法实现。随后,我们针对性地训练一个CNN网络,用于在与文本信息的同一个特征空间中,嵌入图片特征信息。
具体来说,实现这个的第一种方法可以是:使用交叉熵损失,训练一个CNN去直接从图片中预测其对应的文本嵌入。结果还不错,但是使用Triplet ranking loss能有更好的结果。
使用Triplet ranking loss的设置如下:我们使用已经学习好了文本嵌入(比如GloVe模型),我们只是需要学习出图片表达。因此锚点样本
是一个图片,正样本
是一个图片对应的文本嵌入,负样本
是其他无关图片样本的对应的文本嵌入。为了选择文本嵌入的负样本,我们探索了不同的在线负样本采集策略。在多模态检索这个问题上使用三元组样本采集而不是成对样本采集,显得更加合乎情理,因为我们可以不建立显式的类别区分(比如没有label信息)就可以达到目的。在给定了不同的图片后,我们可能会有需要简单三元组样本,但是我们必须留意与难样本的采样,因为采集到的难负样本有可能对于当前的锚点样本,也是成立的(虽然标签的确不同,但是可能很相似。)
在该实验设置中,我们只训练了图像特征表征。对于第
个图片样本,我们用
表示这个CNN网络提取出的图像表征,然后用
分别表示正文本样本和负文本样本的GloVe嵌入特征表达,我们有:
在这种实验设置下,我们对比了triplet ranking loss和交叉熵损失的一些实验的量化结果。我不打算在此对实验细节写过多的笔墨,其实验细节设置和[4,5]一样。基本来说,我们对文本输入进行了一定的查询,输出是对应的图像。当我们在社交网络数据上进行半监督学习的时候,我们对通过文本检索得到的图片进行某种形式的评估。采用了Triplet ranking loss的结果远比采用交叉熵损失的结果好。
深度学习框架中的ranking loss层
Caffe
Constrastive loss layer
pycaffe triplet ranking loss layer
PyTorch
CosineEmbeddingLoss
MarginRankingLoss
TripletMarginLoss
TensorFlow
contrastive_loss
triplet_semihard_loss
参考资料
[1] https://blog.csdn.net/LoseInVain/article/details/88373506
[2] https://omoindrot.github.io/triplet-loss
[3] https://github.com/adambielski/siamese-triplet
[4] https://arxiv.org/abs/1901.02004
[5] https://gombru.github.io/2018/08/01/learning_from_web_data/
推荐阅读
图像分割损失函数最详细总结,含代码
深度学习常用损失函数总览:基本形式、原理、特点
最全的损失函数汇总
添加极市小助手微信
(ID : cv-mart)
,备注:
姓名-学校/公司-研究方向-城市
(如:小极-北大-
目标检测-
深圳),即可申请加入
极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR
等技术交流群
,更有
每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、
干货资讯汇总、行业技术交流
,
一起来让思想之光照的更远吧~
△长按添加极市小助手
△长按关注极市平台,获取
最新CV干货
觉得有用麻烦给个在看啦~
登录查看更多
点赞并收藏
0
暂时没有读者
16
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
负样本
关注
0
无需额外数据、Tricks、架构调整,CMU开源首个将ResNet50精度提升至80%+新方法
专知会员服务
13+阅读 · 2020年9月20日
【MIT】理解深度学习网络里单个神经元的作用
专知会员服务
28+阅读 · 2020年9月12日
最新《几何深度学习》教程,100页ppt,Geometric Deep Learning
专知会员服务
100+阅读 · 2020年7月16日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
【SIGIR2020-中科院计算所】L2R2: 利用排名进行外展推理,L2R2: Leveraging Ranking for Abductive Reasoning
专知会员服务
10+阅读 · 2020年5月25日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
31+阅读 · 2020年4月23日
【Yoshua Bengio新论文】图神经网络基准构件化- 如何构建强大GNN模型?南洋理工大学
专知会员服务
57+阅读 · 2020年3月4日
【浙江大学-AAAI2020】领域自适应的对抗损失,Adversarial-Learned Loss for Domain Adaptation
专知会员服务
61+阅读 · 2020年1月11日
【论文】用于推理的概率逻辑神经网络(Probabilistic Logic Neural Networks for Reasoning)
专知会员服务
103+阅读 · 2019年12月30日
【ICCV 2019 Workshop】Adaptive Confidence Smoothing for Generalized Zero-Shot Learning, 巴伊兰大学 Yuval Atzmon
专知会员服务
12+阅读 · 2019年10月31日
深度学习的多个loss如何平衡?
极市平台
5+阅读 · 2020年3月16日
度量学习中的pair-based loss
极市平台
65+阅读 · 2019年7月17日
再谈人脸识别损失函数综述
人工智能前沿讲习班
14+阅读 · 2019年5月7日
非平衡数据集 focal loss 多类分类
AI研习社
33+阅读 · 2019年4月23日
人脸识别损失函数综述(附开源实现)
极市平台
29+阅读 · 2019年3月12日
从最优化的角度看待 Softmax 损失函数
极市平台
31+阅读 · 2019年2月21日
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
【干货】Lossless Triplet Loss: 一种高效的Siamese网络损失函数
专知
6+阅读 · 2018年2月21日
何恺明大神的「Focal Loss」,如何更好地理解?
PaperWeekly
10+阅读 · 2017年12月28日
LibRec 每周算法:Collaborative Metric Learning (WWW'17)
LibRec智能推荐
6+阅读 · 2017年7月4日
Few-shot Learning with Meta Metric Learners
Arxiv
13+阅读 · 2019年1月26日
Omni-directional Feature Learning for Person Re-identification
Arxiv
3+阅读 · 2018年12月13日
Deep Randomized Ensembles for Metric Learning
Arxiv
5+阅读 · 2018年9月4日
Large Margin Few-Shot Learning
Arxiv
11+阅读 · 2018年7月8日
Homocentric Hypersphere Feature Embedding for Person Re-identification
Arxiv
5+阅读 · 2018年5月1日
Scalable Angular Discriminative Deep Metric Learning for Face Recognition
Arxiv
4+阅读 · 2018年5月1日
TVAE: Triplet-Based Variational Autoencoder using Metric Learning
Arxiv
3+阅读 · 2018年4月3日
Triplet-based Deep Similarity Learning for Person Re-Identification
Arxiv
3+阅读 · 2018年2月9日
Deep Metric Learning with BIER: Boosting Independent Embeddings Robustly
Arxiv
18+阅读 · 2018年1月15日
Latent Relational Metric Learning via Memory-based Attention for Collaborative Ranking
Arxiv
5+阅读 · 2018年1月7日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
负样本
排序
损失
样本
三元组
Siamese
相关VIP内容
无需额外数据、Tricks、架构调整,CMU开源首个将ResNet50精度提升至80%+新方法
专知会员服务
13+阅读 · 2020年9月20日
【MIT】理解深度学习网络里单个神经元的作用
专知会员服务
28+阅读 · 2020年9月12日
最新《几何深度学习》教程,100页ppt,Geometric Deep Learning
专知会员服务
100+阅读 · 2020年7月16日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
【SIGIR2020-中科院计算所】L2R2: 利用排名进行外展推理,L2R2: Leveraging Ranking for Abductive Reasoning
专知会员服务
10+阅读 · 2020年5月25日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
31+阅读 · 2020年4月23日
【Yoshua Bengio新论文】图神经网络基准构件化- 如何构建强大GNN模型?南洋理工大学
专知会员服务
57+阅读 · 2020年3月4日
【浙江大学-AAAI2020】领域自适应的对抗损失,Adversarial-Learned Loss for Domain Adaptation
专知会员服务
61+阅读 · 2020年1月11日
【论文】用于推理的概率逻辑神经网络(Probabilistic Logic Neural Networks for Reasoning)
专知会员服务
103+阅读 · 2019年12月30日
【ICCV 2019 Workshop】Adaptive Confidence Smoothing for Generalized Zero-Shot Learning, 巴伊兰大学 Yuval Atzmon
专知会员服务
12+阅读 · 2019年10月31日
热门VIP内容
开通专知VIP会员 享更多权益服务
军用数据链:武器装备神经,联合作战基石,31页pdf
【ETHZ博士论文】超越像素深度:通过深度学习增强超分辨率技术,198页pdf
2018∼2023年国家自然科学基金人工智能学科人才项目申请及资助综述
【NeurIPS2024】《AmoebaLLM:构建任意形状的大型语言模型以实现高效和即时部署》
相关资讯
深度学习的多个loss如何平衡?
极市平台
5+阅读 · 2020年3月16日
度量学习中的pair-based loss
极市平台
65+阅读 · 2019年7月17日
再谈人脸识别损失函数综述
人工智能前沿讲习班
14+阅读 · 2019年5月7日
非平衡数据集 focal loss 多类分类
AI研习社
33+阅读 · 2019年4月23日
人脸识别损失函数综述(附开源实现)
极市平台
29+阅读 · 2019年3月12日
从最优化的角度看待 Softmax 损失函数
极市平台
31+阅读 · 2019年2月21日
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
【干货】Lossless Triplet Loss: 一种高效的Siamese网络损失函数
专知
6+阅读 · 2018年2月21日
何恺明大神的「Focal Loss」,如何更好地理解?
PaperWeekly
10+阅读 · 2017年12月28日
LibRec 每周算法:Collaborative Metric Learning (WWW'17)
LibRec智能推荐
6+阅读 · 2017年7月4日
相关论文
Few-shot Learning with Meta Metric Learners
Arxiv
13+阅读 · 2019年1月26日
Omni-directional Feature Learning for Person Re-identification
Arxiv
3+阅读 · 2018年12月13日
Deep Randomized Ensembles for Metric Learning
Arxiv
5+阅读 · 2018年9月4日
Large Margin Few-Shot Learning
Arxiv
11+阅读 · 2018年7月8日
Homocentric Hypersphere Feature Embedding for Person Re-identification
Arxiv
5+阅读 · 2018年5月1日
Scalable Angular Discriminative Deep Metric Learning for Face Recognition
Arxiv
4+阅读 · 2018年5月1日
TVAE: Triplet-Based Variational Autoencoder using Metric Learning
Arxiv
3+阅读 · 2018年4月3日
Triplet-based Deep Similarity Learning for Person Re-Identification
Arxiv
3+阅读 · 2018年2月9日
Deep Metric Learning with BIER: Boosting Independent Embeddings Robustly
Arxiv
18+阅读 · 2018年1月15日
Latent Relational Metric Learning via Memory-based Attention for Collaborative Ranking
Arxiv
5+阅读 · 2018年1月7日
大家都在搜
汽车智能化
笛卡尔
大型语言模型
时间序列
全面综述
智能推荐
RE-NET
palantir
无人艇
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top