The problem of session-based recommendation aims to predict user actions based on anonymous sessions. Previous methods model a session as a sequence and estimate user representations besides item representations to make recommendations. Though achieved promising results, they are insufficient to obtain accurate user vectors in sessions and neglect complex transitions of items. To obtain accurate item embedding and take complex transitions of items into account, we propose a novel method, i.e. Session-based Recommendation with Graph Neural Networks, SR-GNN for brevity. In the proposed method, session sequences are modeled as graph-structured data. Based on the session graph, GNN can capture complex transitions of items, which are difficult to be revealed by previous conventional sequential methods. Each session is then represented as the composition of the global preference and the current interest of that session using an attention network. Extensive experiments conducted on two real datasets show that SR-GNN evidently outperforms the state-of-the-art session-based recommendation methods consistently.


翻译:届会建议的问题旨在预测基于匿名会议的用户行动。以往的方法是将届会作为一种序列,并估计用户在项目表述表之外的表述方式,以便提出建议。虽然取得了有希望的成果,但不足以在会议期间获得准确的用户矢量,忽视了项目的复杂过渡。为了获得准确的项目嵌入和考虑项目的复杂过渡,我们提出了一个新颖的方法,即:与图表神经网络有关的届会建议,SR-GNN(简略性);在拟议方法中,会议顺序以图表结构数据为模型。根据届会图表,GNN可以捕捉到复杂的项目过渡,而以往的常规顺序方法很难揭示这些过渡。然后,每次会议都作为全球偏好的组成和会议当前的兴趣使用关注网络进行。对两个真实数据集进行的广泛实验表明,SR-GNN(简略性)明显地超越了基于会议的最新建议方法。

0
下载
关闭预览

相关内容

【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
推荐中的序列化建模:Session-based neural recommendation
机器学习研究会
18+阅读 · 2017年11月5日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
10+阅读 · 2019年2月19日
Next Item Recommendation with Self-Attention
Arxiv
5+阅读 · 2018年8月25日
Arxiv
14+阅读 · 2018年4月18日
Arxiv
5+阅读 · 2017年11月13日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员