Graph Convolution Networks (GCNs) manifest great potential in recommendation. This is attributed to their capability on learning good user and item embeddings by exploiting the collaborative signals from the high-order neighbors. Like other GCN models, the GCN based recommendation models also suffer from the notorious over-smoothing problem - when stacking more layers, node embeddings become more similar and eventually indistinguishable, resulted in performance degradation. The recently proposed LightGCN and LR-GCN alleviate this problem to some extent, however, we argue that they overlook an important factor for the over-smoothing problem in recommendation, that is, high-order neighboring users with no common interests of a user can be also involved in the user's embedding learning in the graph convolution operation. As a result, the multi-layer graph convolution will make users with dissimilar interests have similar embeddings. In this paper, we propose a novel Interest-aware Message-Passing GCN (IMP-GCN) recommendation model, which performs high-order graph convolution inside subgraphs. The subgraph consists of users with similar interests and their interacted items. To form the subgraphs, we design an unsupervised subgraph generation module, which can effectively identify users with common interests by exploiting both user feature and graph structure. To this end, our model can avoid propagating negative information from high-order neighbors into embedding learning. Experimental results on three large-scale benchmark datasets show that our model can gain performance improvement by stacking more layers and outperform the state-of-the-art GCN-based recommendation models significantly.


翻译:图表变迁网络(GCNs)在建议中显示出巨大的潜力。 这是因为他们通过利用高端邻居的协作信号学习好用户和项目嵌入的能力。 与其他GCN模型一样, GCN 基础建议模型也存在臭名昭著的过度移动问题 — — 当堆叠更多层时, 节点嵌入会变得更加相似, 最终无法分化, 导致性能退化。 最近提议的 LightGCN 和 LR-GCN 在某种程度上缓解了这一问题。 但是, 我们争辩说, 他们忽略了建议中过度移动问题的一个重要因素, 也就是说, 高端邻居用户没有共同利益的用户也可以参与用户嵌入图变动操作中的学习。 结果, 多层图嵌嵌入会让不同兴趣的用户有相似的嵌入功能。 在本文中, 我们提出一个新的关注模型, 以GCN (IMP-GCN) 状态建议, 用于在子图中进行高端变换, 即高端的用户和高端变换数据结构。 子图中, 与共同的用户展示了类似的利益, 演示的生成模型的分级模型, 能够将用户的分解。

11
下载
关闭预览

相关内容

如何构建你的推荐系统?这份21页ppt教程为你讲解
专知会员服务
64+阅读 · 2021年2月12日
【KDD2020-Tutorial】自动推荐系统,Automated Recommendation System
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
【推荐系统】16篇最新推荐系统论文送你
深度学习自然语言处理
3+阅读 · 2020年3月7日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
vae 相关论文 表示学习 2
CreateAMind
6+阅读 · 2018年9月9日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Arxiv
10+阅读 · 2019年2月19日
VIP会员
相关VIP内容
如何构建你的推荐系统?这份21页ppt教程为你讲解
专知会员服务
64+阅读 · 2021年2月12日
【KDD2020-Tutorial】自动推荐系统,Automated Recommendation System
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
Top
微信扫码咨询专知VIP会员