相对熵(relative entropy),又被称为Kullback-Leibler散度(Kullback-Leibler divergence)或信息散度(information divergence),是两个概率分布(probability distribution)间差异的非对称性度量。在在信息理论中,相对熵等价于两个概率分布的信息熵(Shannon entropy)的差值.
两概率分布交叉熵的最小值是多少?
PaperWeekly
0+阅读 · 2021年11月6日
【经典书】信息论与统计: 教程,116页pdf
专知
1+阅读 · 2021年3月27日
【斯坦福经典书】熵与信息论,311页pdf
专知
3+阅读 · 2021年3月23日
【数学基础】机器学习中的几个熵
深度学习自然语言处理
0+阅读 · 2020年2月19日
字节跳动实习算法岗面经
CVer
3+阅读 · 2019年4月13日
PRL导读-2019年122卷10期
中科院物理所
0+阅读 · 2019年3月25日
进展 | 量子相干度量研究进展
中科院物理所
0+阅读 · 2018年9月25日
【干货分享】AIOps之根因分析
腾讯大讲堂
11+阅读 · 2018年4月10日
机器学习各种熵:从入门到全面掌握
AI研习社
10+阅读 · 2018年3月22日
参考链接
微信扫码咨询专知VIP会员