推荐系统对于个性化用户体验至关重要,但通常依赖于隐式反馈数据,而这些数据可能噪声较大且具有误导性。现有的去噪研究涉及通过整合辅助信息或从交互数据中学习策略。然而,这些方法面临外部知识和交互数据固有的局限性,以及某些预定义假设的非普适性,导致无法准确识别噪声。近年来,大型语言模型(LLMs)因其广泛的世界知识和推理能力而受到关注,但它们在增强推荐系统中去噪方面的潜力仍未得到充分探索。本文提出了LLaRD框架,通过利用LLMs来改善推荐系统中的去噪,从而提升整体推荐性能。具体而言,LLaRD通过先使用LLMs丰富观测数据中的语义洞察,并推断用户-项目的偏好知识,来生成与去噪相关的知识。接着,它在用户-项目交互图上应用一种新颖的链式思维(Chain-of-Thought, CoT)技术,揭示与去噪相关的关系知识。最后,它应用信息瓶颈(Information Bottleneck, IB)原理,将LLM生成的去噪知识与推荐目标对齐,从而过滤掉噪声和不相关的LLM知识。实证结果证明,LLaRD在提升去噪和推荐准确性方面的有效性。代码可在 https://github.com/shuyao-wang/LLaRD 获取。

成为VIP会员查看完整内容
11

相关内容

【ACL2024】通过直接偏好优化的自训练提升链式思维推理
【CIKM2024】使用大型视觉语言模型的多模态虚假信息检测
【ACL2024】DoRA:通过动态秩分布增强参数高效微调
专知会员服务
6+阅读 · 2024年5月28日
【ICML2024】理解视觉语言模型的检索增强任务自适应
专知会员服务
23+阅读 · 2024年5月8日
【CIKM2023】利用知识和强化学习提升语言模型的可靠性
专知会员服务
47+阅读 · 2023年9月20日
专知会员服务
20+阅读 · 2021年3月12日
专知会员服务
42+阅读 · 2020年2月20日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
165+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
431+阅读 · 2023年3月31日
Arxiv
22+阅读 · 2023年3月17日
Arxiv
26+阅读 · 2019年3月5日
Arxiv
19+阅读 · 2018年10月25日
VIP会员
相关VIP内容
【ACL2024】通过直接偏好优化的自训练提升链式思维推理
【CIKM2024】使用大型视觉语言模型的多模态虚假信息检测
【ACL2024】DoRA:通过动态秩分布增强参数高效微调
专知会员服务
6+阅读 · 2024年5月28日
【ICML2024】理解视觉语言模型的检索增强任务自适应
专知会员服务
23+阅读 · 2024年5月8日
【CIKM2023】利用知识和强化学习提升语言模型的可靠性
专知会员服务
47+阅读 · 2023年9月20日
专知会员服务
20+阅读 · 2021年3月12日
专知会员服务
42+阅读 · 2020年2月20日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员