接收会议:ICDE2021 (International Conference on Data Engineering)

论文链接:https://arxiv.org/abs/2104.14899

欢迎转载,转载请注明出处

在电子商务平台中,会话推荐系统(Conversational Recommender Systems, CRSs)通常用于改善用户购物体验。很多网店都有客服聊天机器人,能够通过多轮会话交互来识别用户的意图,然后向他们推荐符合其需求的商品。

传统的点击率预测模型通常用于对候选项进行排序,但大多数会话推荐系统仍然需要解决样本较少和数据稀疏的问题。这篇文章提出了知识增强的深度交叉网络(Knowledge-enhanced Deep Cross Network, K-DCN),能够通过预训练和微调两个步骤,构建会话推荐系统预测模型并推荐合适的商品。该模型引入了基于预训练会话知识图谱的用户状态和对话交互表示,使会话推荐系统预测模型能够感知用户的当前状态以及对话和项目之间的关系,并通过深度交叉网络融合多种信息提供推荐商品。该模型在阿里巴巴真实业务场景中得到了验证。

成为VIP会员查看完整内容
0
16

相关内容

推荐系统,是指根据用户的习惯、偏好或兴趣,从不断到来的大规模信息中识别满足用户兴趣的信息的过程。推荐推荐任务中的信息往往称为物品(Item)。根据具体应用背景的不同,这些物品可以是新闻、电影、音乐、广告、商品等各种对象。推荐系统利用电子商务网站向客户提供商品信息和建议,帮助用户决定应该购买什么产品,模拟销售人员帮助客户完成购买过程。个性化推荐是根据用户的兴趣特点和购买行为,向用户推荐用户感兴趣的信息和商品。随着电子商务规模的不断扩大,商品个数和种类快速增长,顾客需要花费大量的时间才能找到自己想买的商品。这种浏览大量无关的信息和产品过程无疑会使淹没在信息过载问题中的消费者不断流失。为了解决这些问题,个性化推荐系统应运而生。个性化推荐系统是建立在海量数据挖掘基础上的一种高级商务智能平台,以帮助电子商务网站为其顾客购物提供完全个性化的决策支持和信息服务。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

腾讯健康,腾讯医典有多个个性化推荐场景,为了提高推荐效果,使用预训练机制学习更完整的用户表示。

用户表示的学习是推荐系统模型中的重要一环。早期的方法根据用户和项目之间的交互矩阵来学习用户表达,但这些交互矩阵非常稀疏且矩阵中的值通常是粗粒度的,导致系统很难学习到准确的用户表达。近期一些工作利用信息更加丰富的评论文本来增强用户的表示学习,但对于冷门的领域或场景,评论文本的数量也不足以帮助其学习到完整准确的用户表示。用户的一些偏好(如评论习惯等)是在不同的领域或场景间共享的,我们可以利用数据丰富的场景下的评论帮助数据不丰富的场景的推荐。同时,受到近期自然语言处理领域中预训练技术的启发,本论文提出了一种基于预训练和微调的两阶段推荐模型。如图(a)所示,U-BERT包含两个主要模块能够建模评论文本并将其语义信息和用户的嵌入表达进行融合。在预训练阶段,我们设计了两种新的预训练任务能够充分地利用不同场景下积累的评论文本来学习通用的用户表达。如图(b)所示,在微调阶段,我们会根据特定场景下的评论数据对预训练的用户表示进行微调以适应当前场景下的特点。此外,在进行评分预测时,我们还设计了一个co-matching模块以捕捉细粒度的语义匹配信息来更好地预测用户对项目的打分。实验结果表明,本文提出的推荐模型在多个开放数据集上取得了性能提升。

http://34.94.61.102/paper_AAAI-2116.html

成为VIP会员查看完整内容
0
26

特定领域的知识库(KB)从各种数据源精心整理而来,为专业人员提供了宝贵的参阅咨询。由于自然语言理解和人工智能的最新进展,会话系统使这些KBs很容易被专业人员访问,并且越来越受欢迎。尽管在开放域应用程序中越来越多地使用各种会话系统,但特定于域的会话系统的需求是完全不同的,而且具有挑战性。在本文中,我们针对特定领域的KBs提出了一个基于本体的对话系统。特别是,我们利用领域本体中固有的领域知识来识别用户意图,并利用相应的实体来引导对话空间。我们结合了来自领域专家的反馈来进一步细化这些模式,并使用它们为会话模型生成训练样本,减轻了会话设计人员的沉重负担。我们已经将我们的创新集成到一个对话代理中,该代理关注医疗保健,这是IBM Micromedex产品的一个特性。

https://dl.acm.org/doi/abs/10.1145/3318464.3386139

成为VIP会员查看完整内容
0
21

近年来,许多在线平台(如亚马逊和淘宝网)都取得了巨大成功。在线平台上的用户行为是动态变化的,且会随着时间而发展。序列推荐的主要目标就是从用户历史行为中捕捉关键的信息,并基于此准确表征用户兴趣进而提供高质量的推荐[1,2,3]。已有研究人员基于深度学习提出很多序列推荐的模型,此外还有研究人员结合丰富的上下文信息(如商品属性)一起进行用户兴趣建模,实验表明,上下文信息对于提高推荐效果很重要。

尽管现有方法在一定程度上已被证明有效,但它们有两个可能会影响推荐效果的缺陷。首先,他们主要依靠“下一个物品推荐”(Next Item Prediction)损失函数来学习整个模型。在使用上下文信息时,也仍然只使用这一个优化目标。已有研究表明,这种优化方法很容易受到数据稀疏性等问题的影响。此外,它们过分强调最终的推荐性能,而上下文数据和序列数据之间的关联或融合却没有在数据表示中被很好地捕获。多个领域的实验结果表明[4,5,6],更有效的数据表示方法(例如,预先训练的上下文信息嵌入)已成为改善现有模型或体系结构性能的关键因素。因此,有必要重新考虑学习范式并开发更有效的序列推荐系统。

为了解决上述问题,我们借鉴了自监督学习的思想来改进序列推荐的方法。自监督学习是一个新兴的学习范式,旨在让模型从原始数据的内在结构中学习。自监督学习的一般框架是首先从原始数据中构建新的监督信号,然后通过这些额外设计的优化目标来对模型进行预训练。如之前讨论的,有限的监督信号和低效的数据表示是现有的神经序列推荐方法的两个主要问题。幸运的是,自监督学习似乎为解决这两个问题提供了解决方案:它通过内在数据相关性来设计辅助训练目标以提供丰富的自监督信号,并通过预训练的方法增强数据表示。对于序列推荐,上下文信息以不同的形式存在,包括物品,属性,子序列和序列。开发统一表征这种数据相关性的方法并不容易。对于这个问题,我们借鉴最近提出的互信息最大化(Mutual Information Maximization, MIM)方法,其已被证明可以有效捕获原始输入的不同视图(或部分)之间的相关性。

基于以上,我们提出了一种基于自监督学习方法的序列推荐模型(Self-Supervised Learning Sequential Recommendation, S3-Rec)。基于自注意力机制的体系结构[3],我们首先使用设计的自监督训练目标对模型进行预训练,然后根据推荐任务对模型进行微调。此工作的主要新颖之处在预训练阶段,我们基于MIM的统一形式精心设计了四个自监督的优化目标,分别用于捕获物品-属性间,序列-物品间,序列-属性间和序列-子序列间的相关性。因此,S3-Rec能够以统一的方式来表征不同粒度级别或不同形式数据之间的相关性,并且也可以灵活地适应新的数据类型或关联模式。通过这样的预训练方法,我们可以有效地融合各种上下文数据,并学习属性感知的上下文化的数据表示。最后,将学习到的表示输入推荐模型,并根据推荐任务对其进行优化。

为了验证S3-Rec的有效性,我们在6个不同领域的真实数据集上进行了充分的实验。实验结果表明,S3-Rec超过了目前的SOTA,并且在训练数据非常有限的情况表现得尤为明显。另外S3-Rec还可以有效得适应其他类别的神经体系结构,例如GRU[1]和CNN[2]。我们的主要贡献概括如下:(1)据我们所知,这是首次采用MIM进行自监督学习来改善序列推荐任务的工作;(2)我们提出了4个自监督优化目标来最大化不同形式或粒度的上下文信息的互信息;(3)在6个数据集上的充分实验证明了我们方法的有效性。

成为VIP会员查看完整内容
0
32

论文标题: Improving Conversational Recommender Systems via Knowledge Graph based Semantic Fusion

论文来源: ACM SIGKDD 2020

论文链接:https://www.zhuanzhi.ai/paper/2d6c4333dfba038f1b318a37f5bc035d

会话推荐系统(conversation recommender system, CRS)旨在通过交互式的会话给用户推荐高质量的商品。通常CRS由寻求商品的user和推荐商品的system组成,通过交互式的会话,user实时表达自己的偏好,system理解user的意图并推荐商品。目前会话推荐系统有两个问题需要解决。首先,对话数据本身缺少足够的上下文信息,无法准确地理解用户的偏好(传统的推荐任务会有历史交互序列或者用户属性,但是该场景下只有对话的记录)。其次,自然语言的表示和商品级的用户偏好之间存在语义鸿沟(在user的话语“Can you recommend me a scary movie like Jaws”中,用户偏好反映在单词”scary“和电影实体”Jaws“上,但这两类信息天然存在语义的差异)。

为了解决上述问题,本文提出了模型KG-based Semantic Fusion approach(KGSF),通过互信息最大化的多知识图谱语义融合技术,不仅打通了对话中不同类型信息的语义鸿沟,同时针对性得设计了下游的模型,以充分发挥两个知识图谱的作用,在会话推荐系统的两个任务上均取得了state-of-the-art的效果。

成为VIP会员查看完整内容
0
25

主题: Improving Conversational Recommender Systems via Knowledge Graph based Semantic Fusion

摘要: 会话推荐系统(CRS)旨在通过交互式对话向用户推荐高质量的项目。尽管已为CRS做出了一些努力,但仍有两个主要问题有待解决。首先,对话数据本身缺少足够的上下文信息,无法准确地了解用户的偏好。第二,自然语言表达与项目级用户偏好之间存在语义鸿沟。为了解决这些问题,我们结合了面向单词和面向实体的知识图(KG)来增强CRS中的数据表示,并采用互信息最大化来对齐单词级和实体级的语义空间。基于对齐的语义表示,我们进一步开发了用于进行准确推荐的KGenhanced推荐器组件,以及可以在响应文本中生成信息性关键字或实体的KG增强对话框组件。大量的实验证明了我们的方法在推荐和对话任务上都能产生更好的性能。

成为VIP会员查看完整内容
0
52
小贴士
相关论文
Yixin Su,Rui Zhang,Sarah Erfani,Junhao Gan
0+阅读 · 7月23日
Improving Conversational Recommender Systems via Knowledge Graph based Semantic Fusion
Kun Zhou,Wayne Xin Zhao,Shuqing Bian,Yuanhang Zhou,Ji-Rong Wen,Jingsong Yu
8+阅读 · 2020年7月8日
Aidan Hogan,Eva Blomqvist,Michael Cochez,Claudia d'Amato,Gerard de Melo,Claudio Gutierrez,José Emilio Labra Gayo,Sabrina Kirrane,Sebastian Neumaier,Axel Polleres,Roberto Navigli,Axel-Cyrille Ngonga Ngomo,Sabbir M. Rashid,Anisa Rula,Lukas Schmelzeisen,Juan Sequeda,Steffen Staab,Antoine Zimmermann
79+阅读 · 2020年3月4日
A Primer in BERTology: What we know about how BERT works
Anna Rogers,Olga Kovaleva,Anna Rumshisky
27+阅读 · 2020年2月27日
Conceptualize and Infer User Needs in E-commerce
Xusheng Luo,Yonghua Yang,Kenny Q. Zhu,Yu Gong,Keping Yang
3+阅读 · 2019年10月8日
Markus Eberts,Adrian Ulges
6+阅读 · 2019年9月17日
Hongwei Wang,Fuzheng Zhang,Mengdi Zhang,Jure Leskovec,Miao Zhao,Wenjie Li,Zhongyuan Wang
10+阅读 · 2019年6月13日
Hengfui Liau,Nimmagadda Yamini,YengLiong Wong
3+阅读 · 2018年10月16日
Michiki Kurosawa,Yukio Matsumura,Hayahide Yamagishi,Mamoru Komachi
3+阅读 · 2018年5月25日
Jizhe Wang,Pipei Huang,Huan Zhao,Zhibo Zhang,Binqiang Zhao,Dik Lun Lee
15+阅读 · 2018年5月24日
Top