根据标签分布来选择损失函数

2020 年 12 月 3 日 极市平台
↑ 点击 蓝字  关注极市平台

作者丨马东什么@知乎
来源丨https://zhuanlan.zhihu.com/p/304462034
编辑丨极市平台

极市导读

 

作者从两个经典的面试问题出发,以常见的二分类问题和回归问题为例,通过回答问题的方式解释了mse和二元交叉熵相关知识。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

首先回到经典的面试问题:

为什么线性回归使用mse作为损失函数?

为什么逻辑回归二分类常用二元交叉熵作为损失函数?

熟悉lgb、xgb或者是sklearn中的各类回归模型包括了线性回归,tweedie回归等等应该都比较熟悉,我们在模型的框架之下可以选择不同的损失函数,以lightgbm为例:

针对于回归问题有非常多的备选损失函数,那么这些损失函数什么时候用,为什么?

回到基本面试问题,首先我们需要知道的是,使用特定损失函数的前提是我们对标签的分布进行了某种假设,在这种假设的前提下通过极大似然法推出所有样本构成的极大似然公式,然后再使用凸优化的方法比如常见的梯度下降法进行求解

以常见的二分类问题和回归问题为例:

二分类问题的常见假设就是标签服从伯努利分布:

伯努利分布是一个离散型机率分布。试验成功,随机变量取值为1;试验失败,随机变量取值为0。成功机率为p,失败机率为q =1-p,N次试验后,成功期望为N*p,方差为N*p*(1-p) ,所以伯努利分布又称两点分布。

观察到的数据为D1,D2,D3,...,DN,极大似然的目标:

联合分布难计算,我们因此引入一个假设,独立同分布(i.i.d.)(机器学习的基本假设),目标公式改变为:

将函数取对数,函数的极值点不会改变,公式变为:

伯努利分布下随机变量的最大似然计算方法,P(X=1)=p,P(X=0)=1-p:

这样就得到了我们熟悉的二元交叉熵的公式了,注意,二元交叉熵的名字有很多,有的地方把它叫logloss的类别数为2的特例之类的balabala,记住一个名字能辨别同义不同名就行了。

然后是经典的回归的mse的损失函数,这个之前写过了,参考这篇即可:

马东什么:线性回归面经总结——from 牛客
https://zhuanlan.zhihu.com/p/66519299
线性回归要求因变量服从正态分布_lyh的专栏-CSDN博客
https://blog.csdn.net/u010462995/article/details/70847146

我们在使用线性回归的时候的基本假设是噪声服从正态分布,当噪声符合正态分布N(0,delta^2)时,因变量则符合正态分布N(ax(i)+b,delta^2),其中预测函数y=ax(i)+b。这个结论可以由正态分布的概率密度函数得到。也就是说当噪声符合正态分布时,其因变量必然也符合正态分布。因此,我们使用mse的时候实际上是假设y服从正态分布的。

然而生活中的很多回归问题并不符合正态分布,例如典型的奢侈品商城的销量,用户到商城中闲逛,大部分用户基本不买东西,只有少部分用户会进行购买,极少部分用户会购买大量的奢侈品,因此分布常常是这样的:

横轴代表了销量取件从小到达排列,纵轴代表了某个销量区间对应的用户数量,这样的分布情况明显不符合高斯分布。

需要注意,从不均衡学习的角度来说,当正负样本数量相差极大的时候,

例如上图,

此时,其实仍旧是满足二元交叉熵分布的,因此分类问题并不是特别好从基本假设的角度出发去思考损失函数的选择,更多的是偏工程话的一些解释,例如典型的不均衡样本为什么会影响模型的表现,核心原因是少类样本的数量太少,模型学习不到太多的规律,但是如果少类样本的数量很少,例如1000w:10w这样的比例,虽然比例上也是不均衡,但是每个类别的数量都很多足够模型充分学习,实际应用上来看,这种情况基本不需要进行不均衡处理,因此严格来说,这种情况不属于不均衡学习的问题,不均衡学习针对的更多是“绝对不均衡”的问题,即样本的绝对数量很稀少而不是比例。


回到回归问题上,在回归问题的领域基本不会谈论不均衡问题,因为连续的标签没有不均衡的概念,取而代之的是标签分布诡异的情况,因此简单来说,我们可以把这类标签分布不符合高斯分布从而使得以mse作为损失函数的模型拟合效果差的问题作为回归问题中的“不均衡问题”,这类不均衡问题就比较棘手,因为某些情况下的标签的分布情况和样本数量没关系,比如前面说到的奢侈品销量的问题,就是典型的非高斯分布的形式,这个时候,我们就需要使用一些方法来应对这种问题了,和不均衡学习类似,我们可以在样本层面进行一些采样的操作,

这里,我们可以对销量为0的用户进行下采样,这样整体分布看起来会更加复合高斯分布一点,不过这种做法其实意义不大,因为我们未来要预测的样本的分布被破坏了,即使模型拟合出好的效果也没用,这就好比我们进行电商销量预测的时候把双十一的销量样本砍掉,会发现mse变得很优美,但是预测的时候,对于未来的双十一的预测效果会特别差。

因此,更加常见的做法是在标签层面或者损失函数方面进行修正,例如使用对数变换或者更大一点,使用boxcox变换来使得标签尽量接近高斯分布然后即使用mse:

比如这个例子:

所以有时候我们会发现处理回归问题的时候进行对数变换效果更好了。如果标签存在负数,则所有的标签加上一个min_data+1然后进行对数变换即可,或者直接使用boxcox变换。

但是在处理电商销量问题的时候,我发现这种方法并不奏效,因为如果标签分布本身是非常畸形的,可能你处理了半天还是莫得用,处理完的分布还是畸形的,这个时候我们就要考虑使用其它损失函数来进行处理了。

例如使用tweedie loss、possion loss等损失函数替代mse,例如:

这是tweedie分布的典型例子,tweedie loss的实现并不复杂,下次处理回归问题遇到模型效果很差的问题的时候,可以看一下标签的分布情况,然后考虑选择使用不同的损失函数进行测试。

当然,如果懒得看或者看不出来,把损失函数作为超参数进行调参也是可以的。


推荐阅读




    添加极市小助手微信(ID : cvmart2),备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳),即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群:月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~

    △长按添加极市小助手

    △长按关注极市平台,获取 最新CV干货

    觉得有用麻烦给个在看啦~   
    登录查看更多
    0

    相关内容

    【AAAI2021】小样本学习多标签意图检测
    专知会员服务
    54+阅读 · 2020年12月8日
    【最受欢迎的概率书】《概率论:理论与实例》,490页pdf
    专知会员服务
    163+阅读 · 2020年11月13日
    专知会员服务
    28+阅读 · 2020年10月24日
    自回归模型:PixelCNN
    专知会员服务
    26+阅读 · 2020年3月21日
    【机器学习】一文读懂线性回归、岭回归和Lasso回归
    人工智能头条
    6+阅读 · 2019年10月22日
    如何选择合适的损失函数,请看......
    算法与数学之美
    5+阅读 · 2019年9月8日
    从信息论的角度来理解损失函数
    深度学习每日摘要
    17+阅读 · 2019年4月7日
    详解常见的损失函数
    七月在线实验室
    20+阅读 · 2018年7月12日
    机器学习者都应该知道的五种损失函数!
    数盟
    5+阅读 · 2018年6月21日
    从最大似然到EM算法:一致的理解方式
    PaperWeekly
    18+阅读 · 2018年3月19日
    基于概率论的分类方法:朴素贝叶斯
    Python开发者
    8+阅读 · 2017年11月9日
    机器学习(19)之支持向量回归机
    机器学习算法与Python学习
    12+阅读 · 2017年10月3日
    干货 | 深度学习之损失函数与激活函数的选择
    机器学习算法与Python学习
    15+阅读 · 2017年9月18日
    Arxiv
    0+阅读 · 2021年2月4日
    Arxiv
    4+阅读 · 2018年10月31日
    Arxiv
    136+阅读 · 2018年10月8日
    Arxiv
    4+阅读 · 2018年9月6日
    Learning to Importance Sample in Primary Sample Space
    Arxiv
    6+阅读 · 2018年7月29日
    VIP会员
    相关VIP内容
    【AAAI2021】小样本学习多标签意图检测
    专知会员服务
    54+阅读 · 2020年12月8日
    【最受欢迎的概率书】《概率论:理论与实例》,490页pdf
    专知会员服务
    163+阅读 · 2020年11月13日
    专知会员服务
    28+阅读 · 2020年10月24日
    自回归模型:PixelCNN
    专知会员服务
    26+阅读 · 2020年3月21日
    相关资讯
    【机器学习】一文读懂线性回归、岭回归和Lasso回归
    人工智能头条
    6+阅读 · 2019年10月22日
    如何选择合适的损失函数,请看......
    算法与数学之美
    5+阅读 · 2019年9月8日
    从信息论的角度来理解损失函数
    深度学习每日摘要
    17+阅读 · 2019年4月7日
    详解常见的损失函数
    七月在线实验室
    20+阅读 · 2018年7月12日
    机器学习者都应该知道的五种损失函数!
    数盟
    5+阅读 · 2018年6月21日
    从最大似然到EM算法:一致的理解方式
    PaperWeekly
    18+阅读 · 2018年3月19日
    基于概率论的分类方法:朴素贝叶斯
    Python开发者
    8+阅读 · 2017年11月9日
    机器学习(19)之支持向量回归机
    机器学习算法与Python学习
    12+阅读 · 2017年10月3日
    干货 | 深度学习之损失函数与激活函数的选择
    机器学习算法与Python学习
    15+阅读 · 2017年9月18日
    相关论文
    Arxiv
    0+阅读 · 2021年2月4日
    Arxiv
    4+阅读 · 2018年10月31日
    Arxiv
    136+阅读 · 2018年10月8日
    Arxiv
    4+阅读 · 2018年9月6日
    Learning to Importance Sample in Primary Sample Space
    Arxiv
    6+阅读 · 2018年7月29日
    Top
    微信扫码咨询专知VIP会员