User modeling is critical for personalized web applications. Existing user modeling methods usually train user models from user behaviors with task-specific labeled data. However, labeled data in a target task may be insufficient for training accurate user models. Fortunately, there are usually rich unlabeled user behavior data which encode rich information of user characteristics and interests. Thus, pre-training user models on unlabeled user behavior data has the potential to improve user modeling for many downstream tasks. In this paper, we propose a contrastive user model pre-training method named UserBERT. Two self-supervision tasks are incorporated in UserBERT for user model pre-training on unlabeled user behavior data to empower user modeling. The first one is masked behavior prediction, which aims to model the relatedness between user behaviors. The second one is behavior sequence matching, which aims to capture the inherent user interests that are consistent in different periods. In addition, we propose a medium-hard negative sampling framework to select informative negative samples for better contrastive pre-training. We maintain a synchronously updated candidate behavior pool and an asynchronously updated candidate behavior sequence pool to select the locally hardest negative behaviors and behavior sequences in an efficient way. Extensive experiments on two real-world datasets in different tasks show that UserBERT can effectively improve various user models.


翻译:用户模式对于个人化的网络应用程序至关重要。 现有的用户模型方法通常从用户行为中用特定任务标签数据来培训用户模型。 但是, 目标任务中的标签数据可能不足以培训准确用户模型。 幸运的是, 通常有丰富的未标签用户行为数据, 以输入关于用户特性和兴趣的丰富信息。 因此, 未标签用户行为数据的培训前用户模式有可能改进许多下游任务的用户模式。 本文中, 我们提议了一个对比性用户模式模型预培训方法, 名为 UseerBERT 。 用户模型前培训中包含两个自我监督任务, 用于对未标签用户行为数据进行用户行为模型预培训, 以增强用户模型模型的功能。 第一个是隐形行为预测, 目的是模拟用户行为特性和兴趣之间的关联。 第二个是行为序列匹配, 目的是捕捉不同时期内在的用户兴趣。 此外, 我们提出一个中硬的负面抽样框架, 选择信息化的负面样本, 以便进行更好的对比性培训。 我们保留一个同步更新的候选行为池, 并且对候选人行为顺序进行同步更新的候选行为顺序排序, 能够有效地选择当地最坏的用户行为模式, 。 在不同的用户系统中选择最坏的行为模式中, 。

0
下载
关闭预览

相关内容

专知会员服务
22+阅读 · 2021年9月20日
专知会员服务
88+阅读 · 2021年6月29日
【SIGIR 2020】 基于协同注意力机制的知识增强推荐模型
专知会员服务
89+阅读 · 2020年7月23日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
ERNIE Tutorial(论文笔记 + 实践指南)
AINLP
30+阅读 · 2019年8月28日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
跨语言版BERT:Facebook提出跨语言预训练模型XLM
机器之心
4+阅读 · 2019年2月6日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
BERT大火却不懂Transformer?读这一篇就够了
大数据文摘
11+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
Arxiv
6+阅读 · 2021年9月24日
Arxiv
8+阅读 · 2021年3月2日
Arxiv
5+阅读 · 2020年10月2日
VIP会员
相关资讯
ERNIE Tutorial(论文笔记 + 实践指南)
AINLP
30+阅读 · 2019年8月28日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
跨语言版BERT:Facebook提出跨语言预训练模型XLM
机器之心
4+阅读 · 2019年2月6日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
BERT大火却不懂Transformer?读这一篇就够了
大数据文摘
11+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
Top
微信扫码咨询专知VIP会员