In this note I study how the precision of a classifier depends on the ratio $r$ of positive to negative cases in the test set, as well as the classifier's true and false positive rates. This relationship allows prediction of how the precision-recall curve will change with $r$, which seems not to be well known. It also allows prediction of how $F_{\beta}$ and the Precision Gain and Recall Gain measures of Flach and Kull (2015) vary with $r$.


翻译:在本说明中,我研究了一个分类器的精确度如何取决于测试集中正对负案例的正对负比率,以及分类器的真实和假正率,这种关系使人们可以预测精确召回曲线如何与美元变化,美元似乎并不广为人知,还可以预测F ⁇ beta}$和Flach和Kull(2015年)的精确增益和回收收益措施如何因美元而异。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
79+阅读 · 2020年7月26日
【边缘智能综述论文】A Survey on Edge Intelligence
专知会员服务
122+阅读 · 2020年3月30日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
已删除
将门创投
5+阅读 · 2019年3月29日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2020年11月23日
Arxiv
0+阅读 · 2020年11月19日
VIP会员
相关资讯
已删除
将门创投
5+阅读 · 2019年3月29日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员