A well-designed recommender system can accurately capture the attributes of users and items, reflecting the unique preferences of individuals. Traditional recommendation techniques usually focus on modeling the singular type of behaviors between users and items. However, in many practical recommendation scenarios (e.g., social media, e-commerce), there exist multi-typed interactive behaviors in user-item relationships, such as click, tag-as-favorite, and purchase in online shopping platforms. Thus, how to make full use of multi-behavior information for recommendation is of great importance to the existing system, which presents challenges in two aspects that need to be explored: (1) Utilizing users' personalized preferences to capture multi-behavioral dependencies; (2) Dealing with the insufficient recommendation caused by sparse supervision signal for target behavior. In this work, we propose a Knowledge Enhancement Multi-Behavior Contrastive Learning Recommendation (KMCLR) framework, including two Contrastive Learning tasks and three functional modules to tackle the above challenges, respectively. In particular, we design the multi-behavior learning module to extract users' personalized behavior information for user-embedding enhancement, and utilize knowledge graph in the knowledge enhancement module to derive more robust knowledge-aware representations for items. In addition, in the optimization stage, we model the coarse-grained commonalities and the fine-grained differences between multi-behavior of users to further improve the recommendation effect. Extensive experiments and ablation tests on the three real-world datasets indicate our KMCLR outperforms various state-of-the-art recommendation methods and verify the effectiveness of our method.


翻译:设计完善的推荐系统可以准确地捕捉用户和项目的属性,反映个人的独特偏好。传统推荐技术通常侧重于模拟用户和项目之间的单一行为类型。然而,在许多实用的建议方案(例如社交媒体、电子商务)中,在用户-项目关系中存在多种类型的互动行为,如点击、标签-标签-爱好和在线购物平台的购买。因此,如何充分利用多行为信息来提出建议对于现有系统非常重要,这在两个方面提出了需要探讨的挑战:(1) 利用用户个人化的偏好来捕捉多种行为和项目之间的多行为依赖性;(2) 处理目标行为监督信号分散造成的不充分建议。在此工作中,我们提议建立一个知识增强多行为对比学习建议(KMCLR)框架,包括两个对比学习任务和三个功能模块,分别用来应对上述挑战。特别是,我们设计多行为学习模块模块模块模块,以提取用户个人行为上的精细化信息,用以在用户-系统化数据优化的模型化模型中,利用我们的数据格式化模型-系统化模型-升级,并用于用户-更强的系统化数据格式化模型-升级模型-系统化模型-升级的模型-改进和系统化模型-系统化模型-升级模型-系统化模型-升级的模型-系统化模型-升级的模型-升级的模型-升级的模型-升级的模型-升级的模型-升级的模型-模型-系统-升级的模型-改进和系统-系统-系统-升级的模型-系统-系统-升级-系统-系统-系统-系统-系统-系统-系统-系统-系统-系统-系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化-系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化、系统化

4
下载
关闭预览

相关内容

通过学习、实践或探索所获得的认识、判断或技能。
专知会员服务
37+阅读 · 2021年4月27日
专知会员服务
60+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Arxiv
15+阅读 · 2021年6月27日
Arxiv
20+阅读 · 2019年11月23日
Arxiv
23+阅读 · 2018年8月3日
VIP会员
相关资讯
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员