Thanks to their scalability, two-stage recommenders are used by many of today's largest online platforms, including YouTube, LinkedIn, and Pinterest. These systems produce recommendations in two steps: (i) multiple nominators -- tuned for low prediction latency -- preselect a small subset of candidates from the whole item pool; (ii)~a slower but more accurate ranker further narrows down the nominated items, and serves to the user. Despite their popularity, the literature on two-stage recommenders is relatively scarce, and the algorithms are often treated as the sum of their parts. Such treatment presupposes that the two-stage performance is explained by the behavior of individual components if they were deployed independently. This is not the case: using synthetic and real-world data, we demonstrate that interactions between the ranker and the nominators substantially affect the overall performance. Motivated by these findings, we derive a generalization lower bound which shows that careful choice of each nominator's training set is sometimes the only difference between a poor and an optimal two-stage recommender. Since searching for a good choice manually is difficult, we learn one instead. In particular, using a Mixture-of-Experts approach, we train the nominators (experts) to specialize on different subsets of the item pool. This significantly improves performance.


翻译:由于可扩缩性,许多当今最大的在线平台,包括YouTube、LinkedIn和Pinterest等,都使用两阶段建议器。这些系统分两步提出建议:(一) 多个点名器 -- -- 以低预测潜伏调适 -- -- 预选了整个项目池的一小部分候选人;(二) 较慢但更准确的排名器进一步缩小了提名项目的范围,为用户服务。尽管受到欢迎,但关于两阶段建议器的文献相对较少,而且算法往往被视作其部分的总和。这种处理的前提是,两阶段性能的解释是个别组成部分的行为,如果它们是独立部署的话。这不是这种情况:使用合成和现实世界的数据,我们证明,排行和点名器之间的相互作用会大大影响总体业绩。受这些调查结果的激励,我们得出了一个较低的概括性约束,表明对每个点名词培训的仔细选择有时是差和最佳两阶段建议器之间的唯一区别。这种处理方法的前提是,因为要寻找一个好的手动工具,如果是单独进行,那么我们就要进行一次不同的研究,我们进行不同的研究。

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
CCF推荐 | 国际会议信息10条
Call4Papers
8+阅读 · 2019年5月27日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
已删除
生物探索
3+阅读 · 2018年2月10日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
92+阅读 · 2020年2月28日
Arxiv
3+阅读 · 2018年12月21日
Arxiv
6+阅读 · 2018年3月28日
Arxiv
9+阅读 · 2018年1月30日
VIP会员
相关VIP内容
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
相关资讯
CCF推荐 | 国际会议信息10条
Call4Papers
8+阅读 · 2019年5月27日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
已删除
生物探索
3+阅读 · 2018年2月10日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员