![]()
©PaperWeekly 原创 · 作者 | 孙裕道
学校 | 北京邮电大学博士生
研究方向 | GAN图像生成、情绪对抗样本生成
引言
交叉熵(Cross Entropy)是香农信息论中一个非常重要的概念,它在深度学习和机器学习中常常被用作损失函数,给定真实类标签分布
,
为训练过程中模型的类别预测概率分布,交叉熵损失函数可以用于衡量
和
的相似性,从而提供了优化神经网络参数的梯度。本文会通过回答以下四个提问更全面更深入地去了解交叉熵。
-
问题1:为什么交叉熵可以用于度量两个概率分布之间的差异性?
-
-
-
问题4:什么实际应用场景下交叉熵作为损失函数最小值不为 0?
相对熵(KL 散度)与交叉熵
要回答清楚引言中的第一个问题,首先需要理清楚相对熵(KL 散度)与交叉熵的关系。相对熵主要用于衡量两个概率分布之间的差异,连续概率分布的相对熵
的计算公式为:
![]()
![]()
![]()
![]()
当神经网络训练一个给定的数据集的时候,该数据集中每个的样本数据的类标签概率分布的信息熵
(用于衡量一个分布的不确定性)是固定的。所以,相对熵
只和交叉熵
有关。由此可见,深度学习中经常使用交叉熵作为损失函数,实际上度量两概率分布差异的是相对熵。
相对熵的最小值
针对引言中的第二个问题,从上一节可以知道,相对熵跟交叉熵有相同的变化趋势,所以这个问题简化为相对熵是否存在最小值。相对熵其实是一个更抽象的概念
散度的一个特例。
散度的定义和相关性质如下:
定义 1:
给定一个严格凸的二次连续可微函数
,在
的概率密度函数的
和
的
散度的定义为:
![]()
其中
,
确保当分布
时,
;
确保散度
具有非负性。
证明:
由定义可知,
是一个严格凸函数,所以可知局部极小值点也是全局极小值点,又因为
,进一步则有:
两边取等号。
![]()
所以综上所述,当
时,
取到最小值为
。进而可以求得,交叉熵
的最小值为:
相对熵最小值与维数的关系
引言中的第三个问题是对相对熵最小值数学性质的进一步探讨。给定一个离散的等概率分布向量:
由一节可知,交叉熵的最小值为信息熵,则该分布的信息熵
为:
![]()
所以可知,当
变大的时候,信息熵
也会跟着变大,则其相对熵的最小值也会跟着变大。相应的代码如下所示:
![]()
由实验结果可以发现,随着等概率分布维数的增加,其最小交叉熵的数值也增加。
![]()
![]()
多标签分类学习
引言中第四个问题的提出,其实是要打破一个固有认知,即神经网络参数训练熟的时候,交叉熵的损失函数不都为
,例如在多标签分类学习中,交叉熵理论的最小值就不为
。多标签分类任务与多分类任务有所不同,多分类任务是将一个实例分到某个类别中,多标签分类任务是将某个实例分到多个类别中。如下图所示,即为一个多标签分类学习的一个例子,一张图片里有多个类别,房子,树,云等,深度学习模型需要将其一一分类识别出来。
![]()
当采用二元交叉熵函数的时候,该多标签分类器的最后一层为
,多标签分类模型预测的概率向量为
,其中
。此时真实标签分布
和预测概率分布
的二元损失函数为:
![]()
测试样本输入到训练成熟多标签分类器的时候,该样本的预测概率向量的分量如果大于阈值
时,则表示为 1;如果小于阈值
,则表示为
。
当采用多元交叉熵函数的时候,该多标签分类器的最后一层为
,多标签分类模型预测的概率向量为
,其中
。此时真实标签分布 和预测概率分布
的多元交叉熵损失函数为:
![]()
此时该多元交叉熵的损失函数的最小值为
。测试样本输入到训练成熟多标签分类器的时候,该样本的预测概率向量的分量如果大于阈值
时,则表示为 1;如果小于阈值
,则表示为
。
![]()
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
![]()
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
![]()