Using reviews to learn user and item representations is important for recommender system. Current review based methods can be divided into two categories: (1) the Convolution Neural Network (CNN) based models that extract n-gram features from user/item reviews; (2) the Recurrent Neural Network (RNN) based models that learn global contextual representations from reviews for users and items. Despite their success, both CNN and RNN based models in previous studies suffer from their own drawbacks. While CNN based models are weak in modeling long-dependency relation in text, RNN based models are slow in training and inference due to their incapability with parallel computing. To alleviate these problems, we propose a new text encoder module for review modeling in recommendation by combining convolution networks with self-attention networks to model local and global interactions in text together.As different words, sentences, reviews have different importance for modeling user and item representations, we construct review models hierarchically in sentence-level, review-level, and user/item level by encoding words for sentences, encoding sentences for reviews, and encoding reviews for user and item representations. Experiments on Amazon Product Benchmark show that our model can achieve significant better performance comparing to the state-of-the-art review based recommendation models.


翻译:目前基于审查的方法可以分为两类:(1) 以革命神经网络(CNN)为基础的模型,从用户/项目审查中提取正克特征;(2) 以神经网络(RNN)为基础的经常性模型,从用户和项目审查中学习全球背景表述;(2) 以神经网络(RNN)为基础的经常性模型,从用户和项目审查中学习全球背景表述;尽管这些模型取得成功,但以往研究中以CNN和RNNN的模型都有其自身的缺点。尽管以CNN和RNN为基础的模型在模拟文本的长期依赖关系方面薄弱,但基于CNNNNN的模型在培训和推断方面进展缓慢,因为它们与平行计算不易。为了缓解这些问题,我们提出了一个新的文本编码编码模块模块,用于审查建议模式,将革命网络与自我关注网络结合起来,以模拟文本中的当地和全球互动。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
LibRec 精选:推荐系统的常用数据集
LibRec智能推荐
17+阅读 · 2019年2月15日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
3+阅读 · 2020年2月12日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
10+阅读 · 2019年2月19日
Arxiv
9+阅读 · 2018年1月30日
Arxiv
12+阅读 · 2018年1月28日
Arxiv
6+阅读 · 2017年12月2日
Arxiv
5+阅读 · 2017年11月13日
VIP会员
相关VIP内容
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
LibRec 精选:推荐系统的常用数据集
LibRec智能推荐
17+阅读 · 2019年2月15日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Top
微信扫码咨询专知VIP会员