Slate recommendation, where users are presented with a ranked list of items simultaneously, is widely adopted in online platforms. Recent advances in generative models have shown promise in slate recommendation by modeling sequences of discrete semantic IDs autoregressively. However, existing autoregressive approaches suffer from semantically entangled item tokenization and inefficient sequential decoding that lacks holistic slate planning. To address these limitations, we propose HiGR, an efficient generative slate recommendation framework that integrates hierarchical planning with listwise preference alignment. First, we propose an auto-encoder utilizing residual quantization and contrastive constraints to tokenize items into semantically structured IDs for controllable generation. Second, HiGR decouples generation into a list-level planning stage for global slate intent, followed by an item-level decoding stage for specific item selection. Third, we introduce a listwise preference alignment objective to directly optimize slate quality using implicit user feedback. Experiments on our large-scale commercial media platform demonstrate that HiGR delivers consistent improvements in both offline evaluations and online deployment. Specifically, it outperforms state-of-the-art methods by over 10% in offline recommendation quality with a 5x inference speedup, while further achieving a 1.22% and 1.73% increase in Average Watch Time and Average Video Views in online A/B tests.


翻译:列表推荐,即同时向用户呈现一个排序后的物品列表,在在线平台中被广泛采用。生成模型的最新进展通过自回归地建模离散语义ID序列,在列表推荐中展现出潜力。然而,现有的自回归方法存在语义纠缠的物品标记化以及缺乏整体列表规划的低效序列解码问题。为解决这些局限,我们提出了HiGR,一个高效生成式列表推荐框架,它将分层规划与列表级偏好对齐相结合。首先,我们提出一种利用残差量化和对比约束的自编码器,将物品标记化为语义结构化的ID,以实现可控生成。其次,HiGR将生成过程解耦为一个列表级规划阶段(用于全局列表意图)和一个物品级解码阶段(用于具体物品选择)。第三,我们引入了一个列表级偏好对齐目标,直接利用隐式用户反馈优化列表质量。在我们大规模商业媒体平台上的实验表明,HiGR在离线评估和在线部署中均取得了持续的性能提升。具体而言,它在离线推荐质量上以5倍的推理加速超越了现有最优方法超过10%,同时在在线A/B测试中进一步实现了平均观看时长1.22%和平均视频观看次数1.73%的增长。

0
下载
关闭预览

相关内容

【AAAI2024】使用大型语言模型的生成式多模态知识检索
专知会员服务
58+阅读 · 2024年1月19日
Pytorch多模态框架MMF
专知
50+阅读 · 2020年6月20日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员