交叉熵(Cross Entropy)是Shannon信息论中一个重要概念,主要用于度量两个概率分布间的差异性信息。语言模型的性能通常用交叉熵和复杂度(perplexity)来衡量。交叉熵的意义是用该模型对文本识别的难度,或者从压缩的角度来看,每个词平均要用几个位来编码。
一篇文章讲清楚交叉熵和KL散度
PaperWeekly
1+阅读 · 2022年11月11日
NeurIPS 2022 | 稀疏且鲁棒的预训练语言模型
PaperWeekly
0+阅读 · 2022年11月11日
ICML 2022 | 基于Logit归一化的置信度校准方法
PaperWeekly
0+阅读 · 2022年8月12日
CIKM2022 | CROLoss: 一种推荐系统中检索模型的可定制损失函数
机器学习与推荐算法
2+阅读 · 2022年8月10日
如何训练你的准确率?
PaperWeekly
0+阅读 · 2022年6月8日
WWW2022 | 基于交叉成对排序的无偏推荐算法
机器学习与推荐算法
0+阅读 · 2022年4月20日
GPLinker:基于GlobalPointer的实体关系联合抽取
PaperWeekly
2+阅读 · 2022年3月3日
浅谈LabelSmooth两种实现及推导
极市平台
0+阅读 · 2021年12月12日
两概率分布交叉熵的最小值是多少?
PaperWeekly
0+阅读 · 2021年11月6日
将对比学习扩展到监督式场景
TensorFlow
1+阅读 · 2021年7月20日
根据标签分布来选择损失函数
极市平台
0+阅读 · 2020年12月3日
参考链接
微信扫码咨询专知VIP会员