The general aim of the recommender system is to provide personalized suggestions to users, which is opposed to suggesting popular items. However, the normal training paradigm, i.e., fitting a recommender model to recover the user behavior data with pointwise or pairwise loss, makes the model biased towards popular items. This results in the terrible Matthew effect, making popular items be more frequently recommended and become even more popular. Existing work addresses this issue with Inverse Propensity Weighting (IPW), which decreases the impact of popular items on the training and increases the impact of long-tail items. Although theoretically sound, IPW methods are highly sensitive to the weighting strategy, which is notoriously difficult to tune. In this work, we explore the popularity bias issue from a novel and fundamental perspective -- cause-effect. We identify that popularity bias lies in the direct effect from the item node to the ranking score, such that an item's intrinsic property is the cause of mistakenly assigning it a higher ranking score. To eliminate popularity bias, it is essential to answer the counterfactual question that what the ranking score would be if the model only uses item property. To this end, we formulate a causal graph to describe the important cause-effect relations in the recommendation process. During training, we perform multi-task learning to achieve the contribution of each cause; during testing, we perform counterfactual inference to remove the effect of item popularity. Remarkably, our solution amends the learning process of recommendation which is agnostic to a wide range of models. We demonstrate it on Matrix Factorization (MF) and LightGCN, which are representative of the conventional and state-of-the-art model for collaborative filtering. Experiments on five real-world datasets demonstrate the effectiveness of our method.


翻译:推荐人系统的总目标是向用户提供个性化建议,这与推荐受欢迎的项目相反。 但是,正常的培训模式,即安装一个推荐人模型,用点或对针丢失来恢复用户行为数据,使得模型偏向流行项目。这导致了可怕的马修效应,使流行项目更经常地被推荐,甚至更受欢迎。现有工作用反偏重(IPW)解决这个问题,降低了受欢迎项目对培训的影响,增加了长尾项目的影响。尽管理论上是健全的,但IPW方法对加权战略非常敏感,而这种战略很难调和。在这项工作中,我们从新颖和基本的角度探讨受欢迎偏重问题 -- -- 原因效应。我们发现流行偏重在于项目节到排名分的直接效果,因此,项目的内在属性是错误地分。为了消除受欢迎偏重的偏重性偏差,对于反切题来说,必须回答,如果模型只使用项的偏重重度战略,那么IPW方法就会非常敏感,而这种战略很难调调调。在这个工作中,我们从新的和基本的角度来探讨受欢迎的偏重的偏重偏重偏重偏差偏见问题。我们学习了每个研究过程,我们学习了一次的排序,我们学习了一次的排序,我们学习过程的顺序,我们学习了。我们开始一个结果,我们学习了对结果的偏重重重的顺序,我们学习了。我们学习了。我们学习了。

0
下载
关闭预览

相关内容

【快讯】KDD2020论文出炉,216篇上榜, 你的paper中了吗?
专知会员服务
50+阅读 · 2020年5月16日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2020年12月3日
Arxiv
23+阅读 · 2018年8月3日
Arxiv
9+阅读 · 2018年3月23日
Arxiv
9+阅读 · 2018年1月30日
VIP会员
相关VIP内容
【快讯】KDD2020论文出炉,216篇上榜, 你的paper中了吗?
专知会员服务
50+阅读 · 2020年5月16日
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员