• 本文发现,当前模型为推荐系统生成的个性化解释往往单调宽泛,缺少关于用户和商品的特定信息。为了解决这个问题,本文提出了深度多尺度分布变分自编码器(Multi-Scale Distribution Deep Variational Autoencoders),通过先验网络对用户-商品对进行编码来生成对应隐变量。在我们的模型中,识别网络利用标签信息指导先验网络进行学习。同时,我们还设计了多尺度分布学习框架(Multi-scale distribution Learning Framework)帮助模型更容易地利用不同层次的信息。此外,我们进一步提出了目标追踪的KL散度(Target Tracking Kullback-Leibler divergence)以高效训练我们的多尺度架构。

  • 在三个来自真实世界的推荐解释数据集上,我们的模型效果都显著地超越了以往的模型。消融实验及样例分析充分验证了我们设计思路的有效性,进一步展示了我们模型能够产生个性化程度更高的解释。
成为VIP会员查看完整内容
11

相关内容

【AAAI2022】GearNet:弱监督领域自适应的逐步对偶学习
专知会员服务
24+阅读 · 2022年1月20日
《多任务学习》最新综述论文,20页pdf
专知会员服务
123+阅读 · 2021年4月6日
专知会员服务
29+阅读 · 2021年2月26日
最新《医学图像深度语义分割》综述论文
专知会员服务
94+阅读 · 2020年6月7日
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
202+阅读 · 2019年9月30日
WWW'22 | 图神经网络推荐系统的最新SOTA基准
图与推荐
4+阅读 · 2022年3月20日
再谈变分自编码器(VAE):估计样本概率密度
PaperWeekly
3+阅读 · 2021年12月23日
Arxiv'21 | Graph Federated Learning
图与推荐
0+阅读 · 2021年11月17日
论文浅尝 | Interaction Embeddings for Prediction and Explanation
开放知识图谱
11+阅读 · 2019年2月1日
探幽深度生成模型的两种方法:VAE和GAN
AI前线
15+阅读 · 2018年3月10日
读书报告 | Deep Learning for Extreme Multi-label Text Classification
科技创新与创业
48+阅读 · 2018年1月10日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
13+阅读 · 2021年3月29日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员