利用基于Transformer的序列编码器进行对比学习,在序列推荐方面取得了优势。它最大化了共享相似语义的成对序列扩充之间的一致性。然而,现有的序列推荐对比学习方法主要以左右单向Transformer为基础编码器,由于用户行为可能不是严格的从左到右的顺序,因此对于序列推荐来说,这种方法不是最优的。为了解决这个问题,我们提出了一种新的框架,名为对比学习与双向Transformer序列推荐(CBiT)。具体来说,我们首先在双向Transformer中对长用户序列应用滑动窗口技术,它允许对用户序列进行更细粒度的划分。然后我们结合完形填空任务掩码和dropout掩码生成高质量的正样本,进行多对对比学习,与普通的一对对比学习相比,表现出更好的性能和适应性。此外,我们还引入了一种新的动态损失加权策略来平衡完形任务损失和对比任务损失。在三个公共基准数据集上的实验结果表明,我们的模型在序列推荐方面优于最先进的模型。

https://www.zhuanzhi.ai/paper/b6f7c83da0550bfea4e27ceaef3b0aed

成为VIP会员查看完整内容
20

相关内容

WWW 2022 :基于纯MLP架构的序列推荐模型
专知会员服务
14+阅读 · 2022年3月20日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
【AAAI2022】基于对比时空前置学习的视频自监督表示
专知会员服务
18+阅读 · 2021年12月19日
CIKM2021 | 异质图上的图神经网络对比预训练
专知会员服务
15+阅读 · 2021年11月8日
专知会员服务
22+阅读 · 2021年3月23日
【AAAI2021】元学习器的冷启动序列推荐
专知会员服务
39+阅读 · 2020年12月19日
【KDD2022】自监督超图Transformer推荐系统
专知
1+阅读 · 2022年8月1日
对比学习在NLP和多模态领域的应用
专知
6+阅读 · 2022年2月25日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
15+阅读 · 2022年6月14日
Cold-start Sequential Recommendation via Meta Learner
Arxiv
14+阅读 · 2020年12月10日
Arxiv
13+阅读 · 2020年4月12日
Arxiv
25+阅读 · 2017年12月6日
VIP会员
相关VIP内容
WWW 2022 :基于纯MLP架构的序列推荐模型
专知会员服务
14+阅读 · 2022年3月20日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
【AAAI2022】基于对比时空前置学习的视频自监督表示
专知会员服务
18+阅读 · 2021年12月19日
CIKM2021 | 异质图上的图神经网络对比预训练
专知会员服务
15+阅读 · 2021年11月8日
专知会员服务
22+阅读 · 2021年3月23日
【AAAI2021】元学习器的冷启动序列推荐
专知会员服务
39+阅读 · 2020年12月19日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员