互动推荐(IR)最近因其能够迅速捕捉动态兴趣并优化短期和长期目标而受到广泛关注。IR代理通常通过深度强化学习(DRL)实现,因为DRL本质上与IR的动态特性兼容。然而,DRL目前并不完全适用于IR。由于动作空间庞大和样本效率低下的问题,训练DRL推荐代理是一个挑战。关键问题在于,无法提取有用的特征作为高质量表示,供推荐代理优化其策略。为了解决这个问题,我们提出了用于互动推荐的对比表示(CRIR)。CRIR能够高效地从显式交互中提取潜在的高级偏好排序特征,并利用这些特征来增强用户表示。具体来说,CRIR通过一个表示网络提供表示,并通过我们提出的偏好排序对比学习(PRCL)进行优化。PRCL的关键理念是,它可以在不依赖于涉及高级表示或庞大潜在动作集的计算的情况下进行对比学习。此外,我们还提出了一种数据利用机制和代理训练机制,以更好地将CRIR适应于DRL骨架。通过广泛的实验,我们的方法在训练基于DRL的IR代理时,展现了在样本效率上的显著提升。 https://arxiv.org/abs/2412.18396

成为VIP会员查看完整内容
5

相关内容

【ACMMM2024】用于多媒体推荐的模态平衡学习"
专知会员服务
11+阅读 · 8月14日
【CVPR2024】用于视觉-语言导航的体积环境表示
专知会员服务
17+阅读 · 3月24日
【WWW2024】RecDCL: 双重对比学习用于推荐
专知会员服务
21+阅读 · 1月30日
【NeurIPS2023】直接偏好优化,代替RLHF
专知会员服务
43+阅读 · 1月7日
【AAAI2024】LAMM: 多模态提示学习的标签对齐
专知会员服务
39+阅读 · 2023年12月14日
【NeurIPS2023】用几何协调对抗表示学习视差
专知会员服务
26+阅读 · 2023年10月28日
【CIKM2022】基于双向Transformers对比学习的序列推荐
专知会员服务
20+阅读 · 2022年8月10日
专知会员服务
25+阅读 · 2021年9月9日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
基于PyTorch/TorchText的自然语言处理库
专知
28+阅读 · 2019年4月22日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 12月23日
Arxiv
16+阅读 · 2023年6月6日
Arxiv
159+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
12+阅读 · 2022年4月12日
Deep Face Recognition: A Survey
Arxiv
18+阅读 · 2019年2月12日
Arxiv
13+阅读 · 2019年1月26日
VIP会员
相关VIP内容
【ACMMM2024】用于多媒体推荐的模态平衡学习"
专知会员服务
11+阅读 · 8月14日
【CVPR2024】用于视觉-语言导航的体积环境表示
专知会员服务
17+阅读 · 3月24日
【WWW2024】RecDCL: 双重对比学习用于推荐
专知会员服务
21+阅读 · 1月30日
【NeurIPS2023】直接偏好优化,代替RLHF
专知会员服务
43+阅读 · 1月7日
【AAAI2024】LAMM: 多模态提示学习的标签对齐
专知会员服务
39+阅读 · 2023年12月14日
【NeurIPS2023】用几何协调对抗表示学习视差
专知会员服务
26+阅读 · 2023年10月28日
【CIKM2022】基于双向Transformers对比学习的序列推荐
专知会员服务
20+阅读 · 2022年8月10日
专知会员服务
25+阅读 · 2021年9月9日
相关基金
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
相关论文
Arxiv
0+阅读 · 12月23日
Arxiv
16+阅读 · 2023年6月6日
Arxiv
159+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
12+阅读 · 2022年4月12日
Deep Face Recognition: A Survey
Arxiv
18+阅读 · 2019年2月12日
Arxiv
13+阅读 · 2019年1月26日
微信扫码咨询专知VIP会员