Product search has been a crucial entry point to serve people shopping online. Most existing personalized product models follow the paradigm of representing and matching user intents and items in the semantic space, where finer-grained matching is totally discarded and the ranking of an item cannot be explained further than just user/item level similarity. In addition, while some models in existing studies have created dynamic user representations based on search context, their representations for items are static across all search sessions. This makes every piece of information about the item always equally important in representing the item during matching with various user intents. Aware of the above limitations, we propose a review-based transformer model (RTM) for personalized product search, which encodes the sequence of query, user reviews, and item reviews with a transformer architecture. RTM conducts review-level matching between the user and item, where each review has a dynamic effect according to the context in the sequence. This makes it possible to identify useful reviews to explain the scoring. Experimental results show that RTM significantly outperforms state-of-the-art personalized product search baselines.


翻译:多数现有的个性化产品模型都遵循在语义空间代表并匹配用户意图和物品的范式,在这种范式中,完全抛弃细微的比对,无法对项目的排名作进一步解释,而不只是用户/项目水平的相似性。此外,虽然现有研究中的一些模型根据搜索背景创建了动态的用户代表,但所有搜索会话都对项目进行了静态的表述。这使得每个关于项目的信息在与各种用户意图匹配时,在代表项目时总是具有同等的重要性。我们了解上述限制,建议采用基于审查的变异器模型进行个性化产品搜索,该模型将查询、用户审查和项目审查的顺序编码成一个变异器结构。RTM在用户和项目之间进行了审查级别匹配,每个审查会根据序列的背景产生动态效果。这样就可以确定有用的评分审查,从而可以解释评分。实验结果显示,RTM大大超出个人化产品搜索基准的状态。

0
下载
关闭预览

相关内容

Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Cold-start Sequential Recommendation via Meta Learner
Arxiv
15+阅读 · 2020年12月10日
Arxiv
3+阅读 · 2018年11月12日
Arxiv
14+阅读 · 2018年4月18日
Arxiv
7+阅读 · 2018年1月31日
Arxiv
12+阅读 · 2018年1月28日
Arxiv
6+阅读 · 2017年12月2日
VIP会员
相关论文
Cold-start Sequential Recommendation via Meta Learner
Arxiv
15+阅读 · 2020年12月10日
Arxiv
3+阅读 · 2018年11月12日
Arxiv
14+阅读 · 2018年4月18日
Arxiv
7+阅读 · 2018年1月31日
Arxiv
12+阅读 · 2018年1月28日
Arxiv
6+阅读 · 2017年12月2日
Top
微信扫码咨询专知VIP会员