This paper studies the multi-modal recommendation problem, where the item multi-modality information (e.g., images and textual descriptions) is exploited to improve the recommendation accuracy. Besides the user-item interaction graph, existing state-of-the-art methods usually use auxiliary graphs (e.g., user-user or item-item relation graph) to augment the learned representations of users and/or items. These representations are often propagated and aggregated on auxiliary graphs using graph convolutional networks, which can be prohibitively expensive in computation and memory, especially for large graphs. Moreover, existing multi-modal recommendation methods usually leverage randomly sampled negative examples in Bayesian Personalized Ranking (BPR) loss to guide the learning of user/item representations, which increases the computational cost on large graphs and may also bring noisy supervision signals into the training process. To tackle the above issues, we propose a novel self-supervised multi-modal recommendation model, dubbed BM3, which requires neither augmentations from auxiliary graphs nor negative samples. Specifically, BM3 first bootstraps latent contrastive views from the representations of users and items with a simple dropout augmentation. It then jointly optimizes three multi-modal objectives to learn the representations of users and items by reconstructing the user-item interaction graph and aligning modality features under both inter- and intra-modality perspectives. BM3 alleviates both the need for contrasting with negative examples and the complex graph augmentation from an additional target network for contrastive view generation. We show BM3 outperforms prior recommendation models on three datasets with number of nodes ranging from 20K to 200K, while achieving a 2-9X reduction in training time. Our code is available at https://github.com/enoche/BM3.


翻译:本文研究了多模态推荐问题,其中使用物品的多模态信息(例如,图像和文本描述)来提高推荐准确性。除了用户-项交互图外,现有的最先进方法通常使用辅助图(例如,用户-用户或物品-物品关系图)来增强用户和/或物品的学习表示。这些表示通常使用图卷积网络在辅助图上进行传播和聚合,对于大型图形来说,这可能在计算和内存方面都过于昂贵。此外,现有的多模态推荐方法通常利用从贝叶斯个性化排名(BPR)损失中随机抽样的负样本来指导用户/物品表示的学习,这会增加大型图形上的计算成本,并可能在训练过程中带来噪声监督信号。为解决上述问题,我们提出了一种新的自监督多模态推荐模型,称为BM3,它既不需要来自辅助图的增强,也不需要负样本。具体而言,BM3首先使用一种简单的dropout增强从用户和物品的表示中自助引导潜在对比视图。然后,它通过在跨模态和内模态视角下重构用户-项交互图并对齐模态特征来共同优化三个多模态目标,从而学习用户和物品的表示。BM3减轻了与负例的对比和额外目标网络用于对比视图生成的复杂图形增强的需要。我们在三个范围从20K到200K的数据集上展示了BM3优于先前的推荐模型,同时在训练时间上实现了2-9倍的减少。我们的代码可在 https://github.com/enoche/BM3 上获取。

0
下载
关闭预览

相关内容

【KDD 2020】基于互信息最大化的多知识图谱语义融合
专知会员服务
39+阅读 · 2020年9月7日
近期必读的五篇KDD 2020【推荐系统 (RS) 】相关论文
专知会员服务
64+阅读 · 2020年8月11日
KDD 2022 | 判别式自监督学习的个性化推荐
PaperWeekly
0+阅读 · 2022年9月17日
KDD2022 | 基于自监督超图Transformer的推荐算法研究
机器学习与推荐算法
1+阅读 · 2022年8月26日
论文浅尝 - CIKM2020 | 用于推荐系统的多模态知识图谱
开放知识图谱
12+阅读 · 2020年12月17日
LibRec 精选:推荐系统的常用数据集
LibRec智能推荐
17+阅读 · 2019年2月15日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
14+阅读 · 2021年6月27日
Interest-aware Message-Passing GCN for Recommendation
Arxiv
11+阅读 · 2021年2月19日
VIP会员
相关VIP内容
【KDD 2020】基于互信息最大化的多知识图谱语义融合
专知会员服务
39+阅读 · 2020年9月7日
近期必读的五篇KDD 2020【推荐系统 (RS) 】相关论文
专知会员服务
64+阅读 · 2020年8月11日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员