推荐系统是许多在线平台的核心组成部分,但传统方法在理解复杂用户偏好和提供可解释推荐方面仍然面临困难。大型语言模型(LLM)驱动的智能体的出现为此提供了一种有前景的方法,通过实现自然语言交互和可解释推理,可能会彻底改变推荐系统领域的研究。本文综述系统地回顾了LLM驱动的智能体在推荐系统中日益增长的应用。我们识别并分析了当前研究中的三种关键范式:(1)面向推荐的方式,利用智能体增强基础推荐机制;(2)面向交互的方式,通过自然对话和可解释建议促进动态用户参与;(3)面向仿真的方式,采用多智能体框架来模拟复杂的用户-物品交互和系统动态。除了范式分类之外,我们还分析了LLM驱动的推荐智能体的架构基础,研究其核心组成部分:个人资料构建、记忆管理、战略规划和行动执行。我们的研究还扩展到对该领域基准数据集和评估框架的全面分析。这一系统性研究不仅阐明了LLM驱动的推荐系统智能体的当前状态,还为该变革性领域中的关键挑战和有前景的研究方向提供了指引。

1 引言

在信息爆炸的时代,推荐系统[Wu et al., 2022] 已成为数字平台中不可或缺的组成部分,帮助用户在电子商务、社交媒体和娱乐领域中浏览海量内容。尽管传统的推荐方法[He et al., 2017]通过分析用户偏好和历史行为,成功地提供了个性化建议,但在实际应用中仍面临诸多挑战,如对复杂用户意图的理解不足、交互能力有限以及无法提供可解释的推荐[Zhu et al., 2024b]。 近期,大型语言模型(LLM)的进展[Achiam et al., 2023]激发了越来越多的研究兴趣,旨在利用LLM驱动的智能体[Wang et al., 2024a]来解决推荐系统中的上述挑战。将LLM驱动的智能体融入推荐系统,相比传统方法,具有若干显著优势[Zhu et al., 2024b]。首先,LLM智能体能够理解复杂的用户偏好,并通过其精密的推理能力生成上下文推荐,从而使得决策过程更加细致,超越简单的特征匹配。其次,它们的自然语言交互能力促进了多轮对话,能够主动探索用户兴趣并提供可解释的解释,增强了推荐准确性和用户体验。第三,这些智能体通过生成更加真实的用户画像,结合情感状态和时间动态,彻底改变了用户行为模拟,从而提高了系统评估的有效性。此外,LLM的预训练知识和强大的泛化能力促进了跨领域的知识转移,能够以最少的额外训练应对冷启动等长期存在的挑战[Shu et al., 2024]。 在本综述中,我们全面回顾了LLM驱动的智能体在推荐系统中的应用。首先,我们介绍了传统推荐系统的背景,并讨论了它们在理解复杂用户意图、交互能力和可解释性方面的局限性。接着,我们系统地审视了LLM驱动的智能体如何通过三种主要范式解决这些挑战:面向推荐的(如[Wang et al., 2024b; Wang et al., 2024c])、面向交互的(如[Zeng et al., 2024; Friedman et al., 2023])和面向仿真的(如[Yoon et al., 2024; Guo et al., 2024])方法。然后,我们提出了一种统一的智能体架构,包含四个核心模块(个人资料[ Cai et al., 2024; Zhang et al., 2024c]、记忆[ Shi et al., 2024; Fang et al., 2024]、规划[ Wang et al., 2023b; Shi et al., 2024]、行动[ Zhu et al., 2024a; Zhao et al., 2024]),并分析了现有方法如何实现这些模块。进一步地,我们编制了现有基准数据集(包括Amazon系列、MovieLens、Steam等)和评估方法的全面比较,涵盖了传统推荐指标和新兴的评估方法。最后,我们探讨了该领域几个有前景的未来研究方向。

  • 我们提出了一个系统的LLM驱动推荐智能体分类,识别出三种基本范式:面向推荐的、面向交互的和面向仿真的方法。这个分类框架为理解当前的研究提供了结构化的视角。
  • 我们使用统一的架构框架分析LLM驱动的推荐智能体,将其分解为四个核心模块:个人资料构建、记忆管理、战略规划和行动执行。通过这一框架,我们系统地审视了现有方法如何集成和实现这些组件。
  • 我们提供了现有方法、基准数据集和评估方法的全面比较分析,涵盖了传统推荐指标和专为LLM驱动推荐智能体设计的新兴评估方法。

成为VIP会员查看完整内容
16

相关内容

大语言模型是基于海量文本数据训练的深度学习模型。它不仅能够生成自然语言文本,还能够深入理解文本含义,处理各种自然语言任务,如文本摘要、问答、翻译等。2023年,大语言模型及其在人工智能领域的应用已成为全球科技研究的热点,其在规模上的增长尤为引人注目,参数量已从最初的十几亿跃升到如今的一万亿。参数量的提升使得模型能够更加精细地捕捉人类语言微妙之处,更加深入地理解人类语言的复杂性。在过去的一年里,大语言模型在吸纳新知识、分解复杂任务以及图文对齐等多方面都有显著提升。随着技术的不断成熟,它将不断拓展其应用范围,为人类提供更加智能化和个性化的服务,进一步改善人们的生活和生产方式。
博弈论与大语言模型的结合:系统性综述
专知会员服务
32+阅读 · 2月14日
大规模多模态模型数据集、应用类别与分类学综述
专知会员服务
54+阅读 · 2024年12月25日
《计算流体力学中的机器学习最新进展》综述
专知会员服务
32+阅读 · 2024年8月24日
从数据中心视角看多模态大型语言模型的综述
专知会员服务
55+阅读 · 2024年5月28日
低质量数据的多模态融合综述
专知会员服务
49+阅读 · 2024年5月4日
大型语言模型与智能机器人集成的综述
专知会员服务
66+阅读 · 2024年4月22日
大语言模型视角下的智能规划方法综述
专知会员服务
123+阅读 · 2024年4月20日
基于模型的强化学习综述
专知
34+阅读 · 2022年7月13日
基于深度学习的数据融合方法研究综述
专知
31+阅读 · 2020年12月10日
【综述】多智能体强化学习算法理论研究
深度强化学习实验室
12+阅读 · 2020年9月9日
层级强化学习概念简介
CreateAMind
18+阅读 · 2019年6月9日
机器学习中的最优化算法总结
人工智能前沿讲习班
22+阅读 · 2019年3月22日
多模态多任务学习新论文
专知
46+阅读 · 2019年2月9日
深度强化学习简介
专知
30+阅读 · 2018年12月3日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
165+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
431+阅读 · 2023年3月31日
Arxiv
72+阅读 · 2023年3月26日
Arxiv
157+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关VIP内容
博弈论与大语言模型的结合:系统性综述
专知会员服务
32+阅读 · 2月14日
大规模多模态模型数据集、应用类别与分类学综述
专知会员服务
54+阅读 · 2024年12月25日
《计算流体力学中的机器学习最新进展》综述
专知会员服务
32+阅读 · 2024年8月24日
从数据中心视角看多模态大型语言模型的综述
专知会员服务
55+阅读 · 2024年5月28日
低质量数据的多模态融合综述
专知会员服务
49+阅读 · 2024年5月4日
大型语言模型与智能机器人集成的综述
专知会员服务
66+阅读 · 2024年4月22日
大语言模型视角下的智能规划方法综述
专知会员服务
123+阅读 · 2024年4月20日
相关资讯
基于模型的强化学习综述
专知
34+阅读 · 2022年7月13日
基于深度学习的数据融合方法研究综述
专知
31+阅读 · 2020年12月10日
【综述】多智能体强化学习算法理论研究
深度强化学习实验室
12+阅读 · 2020年9月9日
层级强化学习概念简介
CreateAMind
18+阅读 · 2019年6月9日
机器学习中的最优化算法总结
人工智能前沿讲习班
22+阅读 · 2019年3月22日
多模态多任务学习新论文
专知
46+阅读 · 2019年2月9日
深度强化学习简介
专知
30+阅读 · 2018年12月3日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
相关基金
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员