Learning-to-rank (LTR) algorithms are ubiquitous and necessary to explore the extensive catalogs of media providers. To avoid the user examining all the results, its preferences are used to provide a subset of relatively small size. The user preferences can be inferred from the interactions with the presented content if explicit ratings are unavailable. However, directly using implicit feedback can lead to learning wrong relevance models and is known as biased LTR. The mismatch between implicit feedback and true relevances is due to various nuisances, with position bias one of the most relevant. Position bias models consider that the lack of interaction with a presented item is not only attributed to the item being irrelevant but because the item was not examined. This paper introduces a method for modeling the probability of an item being seen in different contexts, e.g., for different users, with a single estimator. Our suggested method, denoted as contextual (EM)-based regression, is ranker-agnostic and able to correctly learn the latent examination probabilities while only using implicit feedback. Our empirical results indicate that the method introduced in this paper outperforms other existing position bias estimators in terms of relative error when the examination probability varies across queries. Moreover, the estimated values provide a ranking performance boost when used to debias the implicit ranking data even if there is no context dependency on the examination probabilities.


翻译:学习到排序( LTR) 算法无处不在,对于探索媒体提供者的广泛目录十分必要。 为了避免用户检查所有结果,使用它的偏好来提供相对小的子集。 如果没有明确的评级, 用户的偏好可以从与所提供内容的互动中推断出来。 但是, 直接使用隐含的反馈可能导致学习错误的相关性模型, 并被称为偏颇 LTR。 隐含反馈和真实相关性之间的不匹配是由于各种偏差, 其中的位置偏差是最重要的。 定位偏差模型认为, 与所提供项目缺乏互动的原因不仅仅是项目无关, 而且是该项目没有被审查的原因。 本文介绍了一种方法, 在不同的场合, 例如, 不同用户, 使用一个单一的估算符, 直接使用隐含的反馈, 直接使用隐含的反馈, 并能够正确了解潜在审查的概率。 我们的经验结果表明, 本文中引入的方法, 不仅因为项目无关紧要, 是因为项目不相干, 而且因为项目没有相关内容。

0
下载
关闭预览

相关内容

专知会员服务
142+阅读 · 2021年3月17日
【MIT干货书】机器学习算法视角,126页pdf
专知会员服务
77+阅读 · 2021年1月25日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
近期必读的五篇KDD 2020【推荐系统 (RS) 】相关论文
专知会员服务
64+阅读 · 2020年8月11日
【干货书】管理统计和数据科学原理,678页pdf
专知会员服务
182+阅读 · 2020年7月29日
最新《多任务学习》综述,39页pdf
专知会员服务
264+阅读 · 2020年7月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
4+阅读 · 2018年3月14日
VIP会员
相关VIP内容
专知会员服务
142+阅读 · 2021年3月17日
【MIT干货书】机器学习算法视角,126页pdf
专知会员服务
77+阅读 · 2021年1月25日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
近期必读的五篇KDD 2020【推荐系统 (RS) 】相关论文
专知会员服务
64+阅读 · 2020年8月11日
【干货书】管理统计和数据科学原理,678页pdf
专知会员服务
182+阅读 · 2020年7月29日
最新《多任务学习》综述,39页pdf
专知会员服务
264+阅读 · 2020年7月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Top
微信扫码咨询专知VIP会员