信息增益(Kullback–Leibler divergence)又叫做information divergence,relative entropy 或者KLIC。 在概率论和信息论中,信息增益是非对称的,用以度量两种概率分布P和Q的差异。信息增益描述了当使用Q进行编码时,再使用P进行编码的差异。通常P代表样本或观察值的分布,也有可能是精确计算的理论分布。Q代表一种理论,模型,描述或者对P的近似。
认真的聊一聊决策树和随机森林
AINLP
1+阅读 · 2021年2月5日
决策树是如何选择特征和分裂点?
PaperWeekly
0+阅读 · 2021年1月7日
最全!两万字带你完整掌握八大决策树!
AI科技评论
0+阅读 · 2020年7月4日
【面经】字节跳动 算法面试复盘
深度学习自然语言处理
1+阅读 · 2020年5月13日
字节跳动 | 算法面试复盘
AINLP
1+阅读 · 2020年5月13日
【机器学习】决策树
AINLP
2+阅读 · 2020年4月3日
决策树算法
DataFunTalk
3+阅读 · 2019年12月5日
决策树算法十问及经典面试问题
计算机视觉life
0+阅读 · 2019年11月29日
核心的决策树算法详解:ID3、C4.5、CART
计算机视觉life
1+阅读 · 2019年11月26日
参考链接
父主题
微信扫码咨询专知VIP会员