题目: A Transformer-based Embedding Model for Personalized Product Search

摘要: 产品搜索是人们在电子商务平台上浏览和购买商品的重要方式。虽然客户倾向于根据他们的个人品味和偏好做出选择,但对商业产品搜索日志的分析表明,个性化并不总是能提高产品搜索质量。然而,大多数现有的产品搜索技术在搜索会话之间执行无差异的个性化设置。他们要么用一个固定的系数来控制个性化的影响,要么用一个注意力机制让个性化一直发挥作用。唯一值得注意的例外是最近提出的零注意模型(zero-attention model, ZAM),该模型允许查询关注一个零向量,从而自适应地调整个性化的效果。尽管如此,在ZAM中,个性化最多可以发挥与查询同等重要的作用,并且不管用户的历史购买中同时出现的item是什么,item的表示在整个集合中都是静态的。考虑到这些局限性,我们提出了一种基于Transformer的个性化产品搜索嵌入模型(TEM),该模型通过使用Transformer架构对查询序列和用户购买历史进行编码,从而动态地控制个性化的影响。个性化可以在必要时发挥主导作用,在计算注意力权重时可以考虑item之间的交互。实验结果表明,TEM的性能明显优于目前最先进的个性化产品检索模型。

成为VIP会员查看完整内容
30

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
近期必读的5篇顶会WWW2020【推荐系统】相关论文-Part2
专知会员服务
69+阅读 · 2020年4月7日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
【推荐系统】详解基于内容的推荐算法
产业智能官
23+阅读 · 2018年1月11日
推荐算法:Match与Rank模型的交织配合
从0到1
15+阅读 · 2017年12月18日
4个方面,系统总结个性化推荐系统
人人都是产品经理
7+阅读 · 2017年12月10日
Arxiv
14+阅读 · 2018年4月18日
Arxiv
5+阅读 · 2017年11月13日
VIP会员
相关资讯
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
【推荐系统】详解基于内容的推荐算法
产业智能官
23+阅读 · 2018年1月11日
推荐算法:Match与Rank模型的交织配合
从0到1
15+阅读 · 2017年12月18日
4个方面,系统总结个性化推荐系统
人人都是产品经理
7+阅读 · 2017年12月10日
微信扫码咨询专知VIP会员