深度度量学习中的损失函数

2019 年 10 月 30 日 极市平台

加入极市专业CV交流群,与6000+来自腾讯,华为,百度,北大,清华,中科院等名企名校视觉开发者互动交流!更有机会与李开复老师等大牛群内互动!

同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流。关注 极市平台 公众号 ,回复 加群,立刻申请入群~


作者:杨旭东

来源:https://zhuanlan.zhihu.com/p/82199561

本文已经作者授权,转载请联系原作者


度量学习(metric learning)研究如何在一个特定的任务上学习一个距离函数,使得该距离函数能够帮助基于近邻的算法(kNN、k-means等)取得较好的性能。深度度量学习(deep metric learning)是度量学习的一种方法,它的目标是学习一个从原始特征到低维稠密的向量空间(称之为嵌入空间,embedding space)的映射,使得同类对象在嵌入空间上使用常用的距离函数(欧氏距离、cosine距离等)计算的距离比较近,而不同类的对象之间的距离则比较远。深度度量学习在计算机视觉领域取得了非常多的成功的应用,比如人脸识别、人脸验证、图像检索、签名验证、行人重识别等。


损失函数在深度度量学习中起到了非常重要的作用。很多深度度量学习的损失函数构建在样本对(pair)或者样本三元组(triplet)之上,因而样本空间的量级($O(N^2)$或者$O(N^3)$)非常大。一般而言,模型在训练过程中很难穷举学习所有的样本对;并且大多数样本对或者样本三元组的信息量是很小的,尤其在模型训练的后期,这些样本对或者样本三元组上梯度值几乎为0。若不做任何针对性的优化,学习算法的收敛速度会很慢,且易陷入局部最优。


困难样本挖掘是加快学习算法的收敛速度,并改进学习效果的一种重要手段。它通常和特定的损失函数一起使用,以期望达到最好的效果。困难样本挖掘可以理解为在学习过程中给每一个样本对动态赋予一个权重。在学习不同样本对时给它们不同的权重,如果某个样本对包含的信息比较多或比较难学习,那么它就需要比较大的权重。信息量较少的样本对则会被赋予较小的权重。若某些样本对被赋予的权重为0,则意味着在计算梯度时不考虑这些样本对,相当于这些样本对被丢弃了。


不同的损失函数在设计时,对于样本对的赋权是不同的,或者说与这些损失函数配合使用的困难样本挖掘方法是不同的。下面列举一些常用的深度度量学习中使用的损失函数,同时了解一下它们是如何来给做困难样本挖掘的。


损失函数(Loss functions)


1. Contrastive loss

Contrastive loss的输入是两个样本组成的样本对,label为该样本对是否属于同一类。

其中, 是函数  的简写,表示输入映射之后的embedding向量; 是指示函数,在输入为true时返回1,否则返回0; 是预先设定的超参数,表示不同类样本之间的距离应超过该margin值。


Contrastive loss


最原始的contrastive loss只考虑了输入样本对本身的相似性。


2. Triplet loss


Triplet loss的输入由一个三元组组成,每个三元组包含一个query、一个与query属于同一类的正样本、一个与query属于不同类的负样本。



Triplet loss要求query到负样本的距离与query到正样本的距离之差要大于


Contrastive loss和triplet loss都很常用,一般来说,Triplet-Loss的效果比Contrastive Loss的效果要好,因为他考虑了正负样本与锚点的距离关系。然而,这两种loss函数如果单独使用则会遭遇收敛速度慢的问题。在学习过程的后期,大多数样本都能满足损失函数的约束条件,这些样本对应进一步学习的贡献很小。因此,这两种损失函数都需要配合hard sample mining的学习策略一起使用,例如FaceNet提出的simi-hard negative sample mining方法。



Triplet loss


3. N-pair-ms loss


Triplet loss在学习参数的更新过程中,只比较了一个负样本,而忽略了其他类的负样本。因而,只能促进query的embedding向量与选中的一个负样本保持较大的距离,但却不能保证与其他未被选择的负样本也保持较大的距离。


N-pair-ms loss对Triplet loss的上述问题进行了改进,不同于Triplet Loss使用单个的正负样本,N-pair-ms loss损失函数利用了数据之间的结构信息来学习到更有区别性的表示,其在每次参数更新的过程中同时考虑了query样本与其他多个不同类的负样本之间的关系,促使query与其他所有类之间都保持距离,这样能够加快模型的收敛速度。N-pair-ms loss的每个训练样本由元组组成,即,其中是相对于  而言的正样本,  是负样本。元组一般不会提前构建好,而是在训练的过程中,从同一个mini batch中构建出来。


其中,  是由深度神经网络定义的embedding kernel.


4. Lifted Struct loss


Lifted Struct loss基于训练集(mini batch)中所有的正负样本对来计算loss,其定义如下:



其中, 是正样本对(pair的左变量和右边量来自同一个类)的集合; 是负样本对的集合; 是样本对  的距离。


仔细分析该loss function,发现对于每一个正样本对,模型分别挖掘其左变量和右边量  对应的最困难的负样本,独立地找到距离左变量最近的负样本,假设为同时找到距离右边量最近的负样本,假设为  。接着通过比较   ,找出其中较小的距离对应的负样本,假设为  。最后,计算三元组确定的triplet loss函数。如下图所示:


Hard negative edge is mined with respect to each left and right example per each positive pairs. In this illustration with 6 examples in the batch, both x3 and x4 independently compares against all other negative edges and mines the hardest negative edge.


Lifted Struct loss与triplet loss的不同之处就在于,triplet loss的样本三元组是提前确定好的,而Lifted Struct loss是为每一个正样本对动态构建最困难的三元组,在构建的过程中考虑了(mini batch中)所有的负样本。


由于上述定义的Lifted Struct loss函数是不光滑的函数,嵌套的max函数在实际中容易导致网络陷入较差的局部最优,因此可以改写为一个光滑的上界函数来避免词问题。



Lifted Struct loss


5. Proxy NCA loss


这个方法提出的目的是去解决采样的问题。假设W代表着训练集中的一小部分数据,在采样时通过选择与W中距离最近的一个样本u作为代理(proxy), 即: 


基于选择的proxy, NCA损失为:



6. Ranked list loss


上述的损失函数都存在如下的两点局限性:


  1. 这些损失函数虽然都提出了加入更多的负样本来获得结构化的信息,但是使用的负样本仅仅是一小部分;

  2. 另外这些损失函数没有考虑类内的数据分布,都追求将同一个class压缩到一个点上。


Ranked List Loss对着两个问题提出了改进。


假设表示训练集,其中每一组元素表示成对的样本与其标签,总共包括  个类别,即,  表示属于类别的所有样本, 表示相应类别的样本数量。


我们的目标是学习到一个函数使得正样本对之间的相似度高于负样本之间的相似度。为了将正负样本区分开,Ranked List Loss希望负样本之间的距离大于某个阈值 ,并且正样本之间的距离小于 ,即正负样本之间至少有 的间隔。基于此,提出了pairwise margin loss:



其中,当时,,否则表示之间的欧式距离, 是hinge函数。


对样本进行合适采样可以加快模型的收敛速率和提高模型性能。Ranked List Loss使用的采样策略很简单,就是损失函数不为0的样本,具体来说,对于正样本,损失函数不为0意味着它们与anchor之间的距离大于 , 类似的,对于负样本,损失函数不为0意味着它们与anchor之间的距离小于,相当于使得同一类别位于一个半径为 大小的超球体内。


给定一个anchor基于相似度对其他样本进行排序,在这个排序结果中,有个正样本,用表示。同样地,有 个负样本,用表示。于每个anchor, 我们希望使得它与正样本集的距离越近越好,并且与负样本集之间存在着的间隔,同时,我们还希望使得anchor与负样本的距离大于边界在执行困难样本挖掘后,得到困难的正样本集合为,困难的负样本集合为


因此,对于正样本我们使用的损失函数为:



对于负样本集,考虑到它的样本数量比较大,对每个负样本使用加权的方式:



其中,  , 是超参数。


最终,整个损失为:


通常情况下,设置



上述几种loss函数的对比如下图所示:



其中,蓝色圆形表示anchor(query)样本,不同的形状表示来自不同类的样本。


7. Multi-Similarity loss


前面说过,困难样本挖掘可以理解为在学习过程中给每一个样本对动态赋予一个权重。给样本赋权的核心在于判断样本的局部分布,即它们之间的相似性,局部样本之间的分布和相互关系并不仅仅取决于当前两个样本之间的距离或相似性,还取决于当前样本对与其周围样本对之间的关系。


因此,对于每一个样本对,我们不仅需要考虑样本对本身的自相似性,同时还要考虑它与其它样本对的相对相似性。其中相对相似性又可以分为正相对相似性 (正样本)、负相对相似性(负样本)两种相似性。


  1. 自相似性:根据样本对自身计算出的相似性,这是一种最常用也是最重要的相似性。例如,当一个负样本对的余弦相似性较大时,意味着很难把该样本对所对应的两种类别区分开来,这样的样本对对模型来说是困难的,也是有信息量的,对于模型学习更有区分度的特征很有帮助。另一方面,自相似性很难完整地描述embedding空间的样本分布情况。

  2. 正相对相似性:不仅考虑当前样本对自身的相似性,还考虑局部邻域内正样本对之间的相对关系。

  3. 负相对相似性:不仅考虑当前样本对自身的相似性,还考虑局部邻域内负样本对之间的相对关系。



各种损失函数都在给样本加权以确定「拉或推」的力度,那么使用什么样的函数来加权就非常重要了,在学习不同样本对时给它们不同的权重,如果某个样本包含的信息比较多或比较难学习,那么它就需要比较大的权重。不同的损失函数在设计时,对于样本对的赋权是不同的,往往会涉及到上述三种相似性的其中一种或多种的计算。以一个负样本对为例,上文提到的几个loss函数涉及到的相似性计算类型如下表所示。


Multi-Similarity Loss(MS loss) 综合考虑了三种相似性,它们能概括目前大多数基于样本对的损失函数。MS Loss 通过采样和加权两次迭代,实现更加高效的样本训练。它通过定义自相似性和相对相似性,在训练过程中更加全面地考虑了局部样本分布,从而能更高效精确的对重要样本对进行采用和加权。


对于一个给定的负样本对,MS loss给它赋予的权重为:



类似地,对于一个给定的负样本对,MS loss给它赋予的权重为



最终,MS loss的定义为: 



相对于求得的梯度刚好为上述样本权重。


ms loss


MS Loss 在大部分图像检索基准数据库上都有很好的性能,且相比最新的方法也有较大的优势。



-End-


*延伸阅读





CV细分方向交流群


添加极市小助手微信(ID : cv-mart),备注:研究方向-姓名-学校/公司-城市(如:目标检测-小极-北大-深圳),即可申请加入目标检测、目标跟踪、人脸、工业检测、医学影像、三维&SLAM、图像分割等极市技术交流群(已经添加小助手的好友直接私信),更有每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流一起来让思想之光照的更远吧~



△长按添加极市小助手


△长按关注极市平台


觉得有用麻烦给个在看啦~  

登录查看更多
7

相关内容

度量学习的目的为了衡量样本之间的相近程度,而这也正是模式识别的核心问题之一。大量的机器学习方法,比如K近邻、支持向量机、径向基函数网络等分类方法以及K-means聚类方法,还有一些基于图的方法,其性能好坏都主要有样本之间的相似度量方法的选择决定。 度量学习通常的目标是使同类样本之间的距离尽可能缩小,不同类样本之间的距离尽可能放大。
【CVPR2020】跨模态哈希的无监督知识蒸馏
专知会员服务
59+阅读 · 2020年6月25日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
83+阅读 · 2020年6月9日
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
25+阅读 · 2020年5月25日
【CVPR2020-CMU】无数据模型选择,一种深度框架潜力
专知会员服务
22+阅读 · 2020年4月12日
机器学习计算距离和相似度的方法
极市平台
10+阅读 · 2019年9月20日
度量学习中的pair-based loss
极市平台
65+阅读 · 2019年7月17日
再谈人脸识别损失函数综述
人工智能前沿讲习班
14+阅读 · 2019年5月7日
判别特征的学习方法用于人脸识别(文末源码)
计算机视觉战队
7+阅读 · 2019年3月28日
人脸识别损失函数综述(附开源实现)
极市平台
29+阅读 · 2019年3月12日
深度判别和共享特征学习的图像分类
计算机视觉战队
6+阅读 · 2017年9月27日
A General and Adaptive Robust Loss Function
Arxiv
8+阅读 · 2018年11月5日
Arxiv
11+阅读 · 2018年9月28日
Arxiv
16+阅读 · 2018年4月2日
VIP会员
相关资讯
机器学习计算距离和相似度的方法
极市平台
10+阅读 · 2019年9月20日
度量学习中的pair-based loss
极市平台
65+阅读 · 2019年7月17日
再谈人脸识别损失函数综述
人工智能前沿讲习班
14+阅读 · 2019年5月7日
判别特征的学习方法用于人脸识别(文末源码)
计算机视觉战队
7+阅读 · 2019年3月28日
人脸识别损失函数综述(附开源实现)
极市平台
29+阅读 · 2019年3月12日
深度判别和共享特征学习的图像分类
计算机视觉战队
6+阅读 · 2017年9月27日
Top
微信扫码咨询专知VIP会员