信息检索中的度量指标全解析

2020 年 8 月 25 日 AINLP




作者:Amit Chaudhary

编译:ronghuaiyang

导读

由浅入深逐个解析信息检索中的度量指标。

我们今天遇到的大多数软件产品都集成了某种形式的搜索功能。我们在谷歌上搜索内容,在YouTube上搜索视频,在亚马逊上搜索产品,在Slack上搜索信息,在Gmail上搜索邮件,在Facebook上搜索人等等。

作为用户,工作流非常简单。我们可以通过在搜索框中写下我们的查询来搜索条目,系统中的排名模型会给我们最相关的前n个结果。

我们如何评估前n个结果有多好?

在这篇文章中,我将解释学习中常用的离线度量来回答上述问题。这些指标不仅对评估搜索结果有用,而且对关键字提取和推荐等问题也有用。

问题1:二元相关性

让我们通过一个简单的玩具例子来理解各种评估指标的细节和权衡。我们有一个排序模型,它会为一个特定的查询返回5个最相关的结果。根据我们的ground-truth,第一个、第三个和第五个结果是相关的。

让我们看看评估这个简单例子的各种指标。

A. 排序不感知的度量

1. Precision@k

这个指标量化了排名前k的结果中有多少项是相关的。在数学上,由下式给出:

对于我们的例子,precision@1 = 1,因为前1结果中的所有项都是相关的。

同样,precision@2 = 0.5,因为前2个结果中只有一个是相关的。

我们可以计算出所有k值的precision分数。

precision@k的一个限制是它没有考虑相关的项目的位置。考虑具有相同数量相关结果的两个模型A和B,即5个中的3个。对于模型A,前三项是相关的,而对于模型B,后三项是相关的。尽管模型A更好,但对于这两个模型,Precision@5是相同的。

2. Recall@k

这个度量给出了查询的所有实际相关结果中在所有的实际的相关结果中的比例。在数学上:

对于我们的例子,recall@1 = 0.33,因为只存在3个实际相关项中的一个。

类似地,由于3个实际相关的项中只有2个项存在,故recall@3 = 0.67。

我们可以计算不同K值的召回分数。

3. F1@k

这是一个组合度量,通过取它们的调和平均值,将Precision@k和Recall@k结合在一起。我们可以这样计算:

利用前面计算的precision和recall的值,我们可以计算不同K值的F1-scores,如下图所示。

B. 排序感知的度量

虽然precision、recall和F1为我们提供了一个单值度量,但它们不考虑返回的搜索结果的顺序。为了解决这一局限性,人们设计了以下排序感知的度量标准:

1. Mean Reciprocal Rank(MRR)

当我们希望系统返回最佳相关项并希望该项位于较高位置时,这个度量是有用的。

在数学上:

其中:

  • ‖Q‖表示查询的总数
  • ranki表示第一个相关结果的排序

为了计算MRR,我们首先计算排序倒数。它只是第一个正确的相关结果的倒数,值的范围从0到1。

在我们的例子中,由于第一个正确的项目位于1的位置,所以1的倒数为1。

让我们看另一个例子,其中只有一个相关结果出现在列表的最后,即位置5。它的倒数得分更低,为0.2。

让我们考虑另一个例子,其中返回的结果都不相关。在这种情况下,倒数为0。

对于多个不同的查询,我们可以通过对每个查询取倒数的平均值来计算MRR。

我们可以看到,MRR并不关心剩余的相关结果的位置。所以,如果你的例子需要以最好的方式返回多个相关的结果,MRR不是一个合适的度量。

2. Average Precision(AP)

平均精度是衡量模型选择的所有与 ground-truth相关的项目是否都有较高的排序。与MRR不同,它考虑所有相关的项目。

数学上:

其中:

  • rel(k)是一个指示函数,当第k位的项有相关性时为1。
  • P(k)是Precision@k度量

对于我们的例子,我们可以根据不同K的Precision@K值计算AP。

为了说明AP的优势,让我们以前面的例子为例,但将3个相关的结果放在开头。我们可以看到,这个例子比上面的例子获得了一个更好的AP分数。

3. Mean Average Precision(MAP)

如果我们想计算多个查询的平均精度,我们可以使用MAP。它只是所有查询的平均精度的平均值。数学上:

其中:

  • Q是查询的总数
  • AP(q)是查询q的平均精度

问题2: 分等级的相关性

让我们以另一个玩具例子为例,其中我们不仅标注了相关或不相关的项目,而是使用了0到5之间的评分标准,其中0表示相关性最低,5表示相关性最高。

我们有一个排序模型,它会为一个特定的查询返回5个最相关的结果。根据我们的ground-truth,第一项的相关性得分为3,第二项的相关性得分为2,以此类推。

让我们了解评估这种类型的各种度量。

1. Cumulative Gain (CG@k)

这个度量使用了一个简单的概念来总结top-K条目的相关性分数。这个总分数称为累积收益。在数学上:

对于我们的例子,CG@2是5,因为我们将前两个相关性得分3和2相加。

同理,我们可以计算所有k值的累积收益:

虽然很简单,但CG并没有考虑到相关项目的顺序。因此,即使我们将一个不太相关的项交换到第一个位置,CG@2也是一样的。

2. Discounted Cumulative Gain (DCG@k)

我们看到了一个简单的累积收益是如何不考虑位置的。但是,我们通常希望具有高相关性得分的项目出现在一个更好的排序位置上。

考虑下面的一个例子。在累积收益的情况下,我们只是简单地将分数相加,而没有考虑它们的位置。

一个物品在位置1上,相关分数为3要比相同的物品在位置2上相关分数为3要好。

所以,我们需要一些方法来惩罚他们的位置。DCG引入了一个基于对数的惩罚函数来降低每个位置的相关性得分。对于5个项,惩罚是:

使用这个惩罚,我们现在可以计算折扣累积收益,只需使用惩罚标准化过后的相关分数的总和。在数学上:

为了理解对数惩罚的行为,让我们在x轴上绘制排名位置,在y轴上绘制相关性得分的百分比,即正如所看到的,在位置1,我们不施加任何惩罚,分数保持不变。但是,分数的百分比指数递减从第1位的100%到第2位的63%,第3位的50%,以此类推。

现在为我们的例子计算DCG。

基于这些惩罚过的分数,我们现在可以计算不同k值下的DCG,只需将它们加起来。

对于DCG@K还有一种替代公式,如果相关的条目排名较低,那么惩罚就会更多。该方案在工业上更受青睐。

虽然DCG解决了累积收益的问题,但它有一定的局限性。假设查询Q1有3个结果,查询Q2有5个结果。那么有5个结果Q2的查询将会有一个更大的总体DCG分数。但我们不能说问题2比问题1好。

3. Normalized Discounted Cumulative Gain (NDCG@k)

为了允许跨查询比较DCG,我们可以使用NDCG,它使用相关项的理想顺序来规范化DCG值。让我们以之前的例子为例,我们已经计算了不同K值下的DCG值。

对于我们的例子,理想情况下,我们希望条目按照相关性得分的降序排序。

我们来计算这个排序下的理想的DCG(IDCG)。

现在,我们可以计算不同k的NDCG@k,通过对DCG@k除以 IDCG@k:

因此,我们得到的NDCG分数的范围在0到1之间。一个完美的排名会得到1分。我们还可以比较不同查询的NDCG@k分数,因为它是一个标准化分数。

总结

这篇文章中,我们了解了二元相关性和分级标签相关性的各种评估指标,以及每个指标如何改进之前的指标。


END

英文原文:https://amitness.com/2020/08/information-retrieval-evaluation/


  
  
    
欢迎加入搜索技术交流群
进群请添加AINLP小助手微信 AINLPer(id: ainlper),备注搜索技术

推荐阅读

这个NLP工具,玩得根本停不下来

征稿启示| 200元稿费+5000DBC(价值20个小时GPU算力)

完结撒花!李宏毅老师深度学习与人类语言处理课程视频及课件(附下载)

从数据到模型,你可能需要1篇详实的pytorch踩坑指南

如何让Bert在finetune小数据集时更“稳”一点

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

文本自动摘要任务的“不完全”心得总结番外篇——submodular函数优化

Node2Vec 论文+代码笔记

模型压缩实践收尾篇——模型蒸馏以及其他一些技巧实践小结

中文命名实体识别工具(NER)哪家强?

学自然语言处理,其实更应该学好英语

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。


阅读至此了,分享、点赞、在看三选一吧🙏

登录查看更多
2

相关内容

专知会员服务
20+阅读 · 2020年9月11日
【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
你的算法可靠吗? 神经网络不确定性度量
专知
40+阅读 · 2019年4月27日
深度解析机器学习系统的八大坑
AI100
4+阅读 · 2019年3月2日
论文浅尝 | 知识图谱相关实体搜索
开放知识图谱
14+阅读 · 2018年12月18日
计算文本相似度常用的四种方法
论智
33+阅读 · 2018年5月18日
独家 | 一文为你解析神经网络(附实例、公式)
数据派THU
5+阅读 · 2018年1月11日
干货 | 自然语言处理(1)之聊一聊分词原理
机器学习算法与Python学习
5+阅读 · 2017年12月7日
python文本相似度计算
北京思腾合力科技有限公司
24+阅读 · 2017年11月6日
如何评价无监督聚类算法
人工智能头条
4+阅读 · 2017年7月7日
R-GAP: Recursive Gradient Attack on Privacy
Arxiv
1+阅读 · 2020年10月15日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
VIP会员
相关资讯
你的算法可靠吗? 神经网络不确定性度量
专知
40+阅读 · 2019年4月27日
深度解析机器学习系统的八大坑
AI100
4+阅读 · 2019年3月2日
论文浅尝 | 知识图谱相关实体搜索
开放知识图谱
14+阅读 · 2018年12月18日
计算文本相似度常用的四种方法
论智
33+阅读 · 2018年5月18日
独家 | 一文为你解析神经网络(附实例、公式)
数据派THU
5+阅读 · 2018年1月11日
干货 | 自然语言处理(1)之聊一聊分词原理
机器学习算法与Python学习
5+阅读 · 2017年12月7日
python文本相似度计算
北京思腾合力科技有限公司
24+阅读 · 2017年11月6日
如何评价无监督聚类算法
人工智能头条
4+阅读 · 2017年7月7日
Top
微信扫码咨询专知VIP会员