大模型如何和用户建模结合?看这篇综述论文

用户建模(UM)旨在从用户数据中发现模式或学习表征,了解特定用户的特征,如个人资料、偏好和个性。用户模型使得在许多在线应用程序中实现个性化和可疑性检测成为可能,例如推荐、教育和医疗健康。常见的两种用户数据类型是文本和图表,因为数据通常包含大量用户生成内容(UGC)和在线互动。文本和图表挖掘的研究正在迅速发展,在过去二十年中贡献了许多值得注意的解决方案。最近,大型语言模型(LLMs)在生成、理解甚至推理文本数据方面显示出卓越的性能。用户建模的方法已经配备了LLMs,并很快变得突出。本文总结了现有研究关于如何以及为什么LLMs是建模和理解UGC的强大工具。然后,它回顾了几类整合了LLMs和基于文本及图表的方法的用户建模大型语言模型(LLM-UM)方法。接着,它介绍了针对各种UM应用的具体LLM-UM技术。最后,它展示了LLM-UM研究中剩余的挑战和未来方向。我们在以下网址维护阅读清单:https://github.com/TamSiuhin/LLM-UM-Reading。

用户建模(UM)旨在从用户行为中提取有价值的见解和模式,使系统能够定制和适应特定用户的需求[124]。UM技术有助于更好地理解用户行为、定制智能辅助,并极大地改善用户体验。例如,当人们在网上寻找晚餐选项并进行搜索时,UM技术会根据互动历史推断他们的特征,预测当前的食物兴趣,并提供个性化推荐。UM在用户数据分析和许多应用程序中都有重大影响,例如电子商务[191, 194, 280]、娱乐[11, 33, 155]和社交网络[1, 2, 212]。UM是一个高度活跃和有影响力的研究领域。用户建模主要是挖掘和学习用户数据,包括用户生成的内容(UGC)和用户与其他用户及物品的互动。用户生成的内容涵盖了广泛的文本数据,如推文、评论、博客和学术论文。丰富的文本可以通过自然语言处理(NLP)技术进行分析。另一方面,用户互动涉及各种行为,如关注、分享、评级、评论和转推。这些互动可能形成一个异构的时间文本属性图[199],因为它具有时间和文本信息,并且具有不同类型的节点和关系。可以使用图挖掘和学习技术对其进行分析。因此,用户建模已分化为基于文本和基于图表的方法,分别专注于从文本和图表数据中提取洞察。基于文本的UM研究如何发展?研究人员使用了多种类型的文本表示,如单词、主题和嵌入。词袋(BoW)模型使用离散词汇创建分布式文本表示,并包含单词频率[67]。为了解决BoW表示的稀疏性,主题建模技术统计发现文档集中的潜在主题,例如潜在狄利克雷分配(LDA)[15]。但它们无法捕捉语义意义,即单词语义相似性。Word2Vec采用非线性神经层开发连续词袋(CBOW)和连续跳跃-gram模型[148]。它从多种类型的UGC文本数据中提取语义嵌入,如博客、评论和推文。然而,神经层太浅,无法捕捉大量单词标记之间的深层序列模式。随着Transformer架构[219]的突破,预训练语言模型(PLMs)显著改变了UGC理解的格局,采用了预训练-微调范式。新范式在大型未标注语料库上训练模型,使用自监着学习,并使用数百或数千个示例微调模型以适应下游任务[102]。最近,大型语言模型(LLMs)在这一领域引发了革命,展现了包括前所未有的推理[241, 256]、泛化[181, 239]和知识理解[163, 205]等新兴能力。

LLMs在极大规模的语料库上进行预训练,更新数十亿参数。大量研究表明,LLMs可以以零样本方式理解UGC,即不需要微调的示例集合。LLMs在摘要[176]方面超越了人类表现,在几个考试中表现优于大多数人类[159],并展示了强大的推理能力,包括提示工程,如思维链[241]、最少到最多[290]和思维树[256]。LLMs为UM研究开启了一个新时代,重新思考UGC挖掘。基于图表的UM研究如何发展?用户与在线内容和用户的互动自然定义为连接用户或事物节点的边。用户数据可以定义为图表。异构图包含多种类型的节点(例如,用户、物品、地点)和关系。时间/加权图在互动上有时间戳/权重标记。属性图允许节点具有一组属性-值对(例如,用户的年龄,产品的颜色)。在文本丰富的图中,节点具有长形文本属性。随机游走重启提供加权图中两个节点之间的亲近度得分,它已在许多设置中成功使用(例如,个性化PageRank[162])。矩阵分解(MF)将用户-物品互动矩阵分解为两个矩阵的乘积,或称为用户和物品的潜在特征[91, 94, 107]。关于协同过滤,MF在明确反馈评级方面表现更好,而RWR利用物品的全球普及性。它实际上是一个基本的嵌入模型[272]。随着深度学习的发展,Node2Vec通过随机游走从图中提取序列,并使用Word2Vec学习节点嵌入[65]。然而,将图编码为序列会导致信息丢失。图神经网络(GNNs)采用消息传递机制对图进行深度表征学习。特别是,图卷积网络(GCN)[105]的家族极大地改善了推荐[49, 69]、用户档案建立[24, 250]、用户行为预测[224, 263]和可疑用户检测[54, 55]的性能。**为什么LLMs正在革新基于文本和图表的UM研究?**用户建模涉及文本和图表数据上的一系列机器学习任务,如文本分类、节点分类、链接预测和时间序列建模。放入上下文中,任务可以是情感分析、自然语言推理(NLI)、用户和产品分类、社交关系预测和时间行为预测。传统上,解决方案必须是针对特定类型数据的特定模型,并在特定注释集上进行训练。例如,由于模式差异,情感分析和NLI任务必须分别训练两个文本分类器。同样,图神经网络(GNN)中的两个网络或至少两个模块被训练来分别预测用户是否交到新朋友和购买物品。此外,由于长尾分布,用户和/或产品档案的文本信息对于学习和预测非常有限。

大型语言模型(LLMs)改变了解决方案开发的范式。首先,如果设计得当,提示能够将大型语言模型中的大多数文本到标签的任务处理为统一的文本生成任务;这样就不急切需要注释数据;而且性能甚至可以与传统模型相媲美或更好。这是因为大型语言模型在极大的语料库上进行了预训练,并微调以遵循提示中的指令。其次,提示可以为图数据上的学习任务而设计。例如,可以问大型语言模型“如果一个用户昨天买了苹果手表,他会考虑购买一双跑鞋吗?”大型语言模型的“分析”可以为现有的用户-商品链接预测器提供额外信息。第三,所有文本信息都可以由大型语言模型自动扩展。相关的参数化知识增强了机器学习模型的输入,降低了任务难度。大型语言模型在表征用户个性[184]、辨别用户立场[271]、确定用户偏好[52]等方面展现出了强大的能力。同时,它们在节点分类[259]、节点属性预测[70]和图推理[226]方面也表现出了显著的熟练程度。初步研究聚焦于利用大型语言模型进行用户建模(LLM-UM),以整合基于文本和基于图的方法。对于用户画像,GENRE [135] 利用ChatGPT作为用户画像工具,通过输入用户的行为历史,并提示模型推断用户偏好的主题和地区。这些由大型语言模型生成的画像作为点击率推荐模型的重要特征,解决了在收集用户画像中的匿名问题。在推荐方面,Kang等[100]使用大型语言模型预测用户基于其行为历史的评分,并发现大型语言模型通常需要较少的数据,同时保持了关于人类和物品的世界知识。在个性化方面,LaMP[189]提出了一个基准,包括个性化文本生成和分类任务,以及检索增强方法。大型语言模型可以作为个性化工具,因为它们理解用户数据。在可疑性检测方面,Chiu等[29]使用GPT-3来检测仇恨言论,发现大型语言模型能够在有限的标签下识别滥用语言。

本综述的剩余部分安排如下(见图2)。第2节介绍用户建模技术和大型语言模型的背景,并阐述了为什么LLMs是下一代用户建模的好工具。第4节根据它们的方法和应用,介绍了LLM-UM的两种分类。第5节总结了LLM-UM的方法,以及LLMs如何在现有工作中整合文本和基于图的方法,包括利用LLMs作为增强器、预测器和控制器。第6节详细讨论了LLM-UM的应用,包括个性化和可疑性检测。最后,第7节深入探讨了LLM-UM主题的当前挑战和未来方向。LLM用户建模鉴于大型语言模型(LLMs)在生成[282]、推理[241]、知识理解[205]方面的强大能力,以及对用户生成内容(UGC)的良好理解,如第3节所述,LLMs可以用来增强用户建模(UM)系统。基于LLMs在其中扮演的角色,LLM-UM方法通常可以分为三类,第一类将LLMs视为唯一的预测器,直接生成预测结果第二类使用LLMs作为增强器,探索更多信息以增强UM系统;第三类赋予LLMs控制UM方法流程的能力,自动化UM过程;最后一类将LLMs用作评估器,评估系统的性能。值得一提的是,在LLM-UM中的“用户模型”形式与之前的定义保持一致,涵盖了借助用户生成内容以及用户-用户/物品交互网络[71]发现的知识和模式。LLM-UM与以前的范式的区别在于方法,其中LLM-UM被LLMs赋能或增强,以获得与用户相关的知识。在以下小节中,我们总结了每种范式,并介绍了代表性的方法。

在本节中,我们介绍了LLM-UM作品中呈现的LLMs-as-Predictors(LLMs作为预测器)范式,这意味着LLMs被用来直接为下游应用做出预测和生成答案。更具体地说,这些方法利用LLMs作为生成推理器、模拟器/代理、分类器/探测器、评分/排名函数、解释器和聊天机器人。

我们分析了利用大型语言模型(LLMs)作为增强器在用户建模(UM)模型中的方法。也就是说,LLMs并不是直接用来生成任务答案,而是被用作插入式增强模块。这些方法使用LLMs作为画像工具、特征编码器、知识增强器和数据生成器。 大型语言模型(LLMs)庞大的参数规模带来了在小型语言模型中从未观察到的新兴能力,赋予LLMs前所未有的控制系统流程和增强用户建模(UM)系统以满足个人需求的能力。值得注意的是,与让LLMs自由探索和与环境互动的LLMs作为代理的方式不同,LLMs-as-Controllers包括那些设计了整个流程并让LLMs决定是否进行某些操作的工作。HuggingGPT[198]使用LLMs作为控制器来管理和组织专家模型的合作。具体到用户建模系统中,RecLLM[61]利用LLMs作为对话管理器,与用户对话,跟踪上下文,并在必要时进行系统调用。Chat-REC[63]让LLMs决定何时使用推荐系统作为外部工具。Foosherian等[60]展示了LLMs可以协助基于流程的对话代理进行情境化、意图分类以防止对话中断和处理超出范围的问题、自动纠正话语、改述回应、制定消除歧义的问题、总结和启用封闭式问题回答能力。LLM4Jobs[121]构建了一个流程,让LLMs决定是否对职位发布进行总结。在用户建模中评估自然语言生成(NLG),特别是在开放领域和对话设置中,一直面临重大挑战。大型语言模型(LLMs)强大的语言建模能力为这些复杂评估开辟了新的机会,一些研究工作提出将LLMs视为生成式用户建模系统的评估者。Svikhnushina和Pu[207]利用LLMs近似在线人类评估对话系统。Huynh等[84]探索了LLMs在对话评估方面的能力,以及提示与训练数据集之间的关系。iEvaLM[235]提出了一个利用LLMs模拟用户和系统之间各种互动的对话推荐评估框架。Zheng等[285]发现使用像GPT-4这样的强大LLMs作为评判员可以很好地匹配受控和众包的人类偏好。LLM-Eval[132]设计了一种基于提示的评估方法,利用统一的评估模式覆盖对话质量的多个维度。Bhat等[13]使用微调过的GPT-3来评估生成的问题,分类这些问题是否有助于学习。GIRL[287]在ChatGPT的帮助下评估推荐的工作结果。这些工作表明,LLMs可以是评估UM系统输出的有效工具,确定这些输出在多大程度上定制以满足特定用户需求。特别是在对话环境中,进行用户研究可能既昂贵又容易受到偏见,LLMs提供了一种可靠且有效的方法来评估复杂和开放式生成的质量。因此,LLMs-as-Evaluator范式增强了用户建模系统的开发。

结论

我们的工作提供了一份全面而结构化的关于大型语言模型在用户建模(LLM-UM)方面的综述。我们展示了为什么LLMs是进行用户建模和理解用户生成内容(UGC)及用户互动的绝佳工具。接着,我们回顾了现有的LLM-UM研究工作,并对它们整合基于文本和基于图的用户建模技术的方法进行了分类,包括LLMs作为增强器、预测器、控制器和评估器的角色。接下来,我们根据它们的应用对现有的LLM-UM技术进行分类。最后,我们概述了LLM-UM领域中剩余的挑战和未来的发展方向。这份综述可作为LLM-UM研究者和从业者的手册,用于研究和使用LLMs来增强用户建模系统,并激发对这个主题的额外兴趣和工作。

成为VIP会员查看完整内容
44

相关内容

个性化系统就是能够针对不同用户的信息需求表现出不同运行效果的软件,而这样的软件提供的服务就是个性化服务。个性化系统的核心是用户建模,即对用户信息需求的模型表示。
大型语言模型在软件工程:调查与待解决的问题
专知会员服务
73+阅读 · 2023年10月6日
大模型如何赋能医学?全科医学人工智能基础模型
专知会员服务
80+阅读 · 2023年4月13日
专知会员服务
119+阅读 · 2020年12月9日
基于模型的强化学习综述
专知
30+阅读 · 2022年7月13日
一文教你如何处理不平衡数据集(附代码)
大数据文摘
11+阅读 · 2019年6月2日
论文浅尝 | 区分概念和实例的知识图谱嵌入方法
开放知识图谱
17+阅读 · 2019年1月19日
深度学习超参数搜索实用指南
云栖社区
28+阅读 · 2018年10月14日
论文浅尝 | 基于置信度的知识图谱表示学习框架
开放知识图谱
24+阅读 · 2018年2月27日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Arxiv
157+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
139+阅读 · 2023年3月24日
Arxiv
20+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员