Online news platforms often use personalized news recommendation methods to help users discover articles that align with their interests. These methods typically predict a matching score between a user and a candidate article to reflect the user's preference for the article. Some previous works have used language model techniques, such as the attention mechanism, to capture users' interests based on their past behaviors, and to understand the content of articles. However, these existing model architectures require adjustments if additional information is taken into account. Pre-trained large language models, which can better capture word relationships and comprehend contexts, have seen a significant development in recent years, and these pre-trained models have the advantages of transfer learning and reducing the training time for downstream tasks. Meanwhile, prompt learning is a newly developed technique that leverages pre-trained language models by building task-specific guidance for output generations. To leverage textual information in news articles, this paper introduces the pre-trained large language model and prompt-learning to the community of news recommendation. The proposed model "prompt-based news recommendation" (PBNR) treats the personalized news recommendation as a text-to-text language task and designs personalized prompts to adapt to the pre-trained language model -- text-to-text transfer transformer (T5). Experimental studies using the Microsoft News dataset show that PBNR is capable of making accurate recommendations by taking into account various lengths of past behaviors of different users. PBNR can also easily adapt to new information without changing the model architecture and the training objective. Additionally, PBNR can make recommendations based on users' specific requirements, allowing human-computer interaction in the news recommendation field.


翻译:在线新闻平台经常使用个性化的新闻推荐方法,帮助用户发现与其兴趣相关的文章。这些方法一般预测用户和候选文章之间的匹配分数来反映用户对文章的偏好。一些以前的工作使用语言模型技术(如注意力机制)来根据用户的过去行为捕捉他们的兴趣,理解文章的内容。然而,这些现有的模型体系结构在考虑其他信息时需要进行调整。近年来,预训练的大型语言模型已经取得了重大发展,这些预训练模型具有更好的词语关系和上下文理解能力,并具有转移学习和减少下游任务训练时间的优势。与此同时,提示学习是一种新开发的技术,通过构建针对输出生成的任务特定引导来利用预训练的语言模型。为了利用新闻文章中的文本信息,在新闻推荐社区中引入预训练的大型语言模型和提示学习。所提出的模型 " 基于提示的新闻推荐系统 " (PBNR) 将个性化新闻推荐视为文本-文本语言任务,并设计个性化提示以适应预训练语言模型 – 文本-文本转换器 (T5)。使用微软新闻数据集的实验研究表明,PBNR能够通过考虑不同用户的不同长度的过去行为而进行准确的推荐。PBNR还可以轻松适应新信息,而无需更改模型体系结构和训练目标。此外,PBNR可以根据用户的具体要求进行推荐,允许新闻推荐领域的人机交互。

0
下载
关闭预览

相关内容

基于预训练语言模型的文本生成
专知会员服务
27+阅读 · 2022年1月28日
专知会员服务
85+阅读 · 2020年1月20日
CIKM 2022 | 基于动态搜索流的个性化搜索提示建模
PaperWeekly
0+阅读 · 2022年10月15日
NeurlPS2022推荐系统论文集锦
机器学习与推荐算法
1+阅读 · 2022年9月26日
SIGIR2022 | 基于Prompt的用户自选公平性推荐算法
机器学习与推荐算法
1+阅读 · 2022年5月25日
IJCAI2022推荐系统论文集锦
机器学习与推荐算法
0+阅读 · 2022年5月20日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
19+阅读 · 2017年10月1日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
6+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
132+阅读 · 2023年4月20日
Arxiv
14+阅读 · 2021年6月27日
Arxiv
22+阅读 · 2018年8月3日
Arxiv
13+阅读 · 2018年4月18日
VIP会员
相关VIP内容
基于预训练语言模型的文本生成
专知会员服务
27+阅读 · 2022年1月28日
专知会员服务
85+阅读 · 2020年1月20日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
6+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员