多模态推荐系统可以通过现有的用户-物品交互以及与物品相关的多模态数据的语义,来学习用户的偏好。许多现有方法通过多模态用户-物品图来建模这一过程,将多模态推荐视为图学习任务。图神经网络(GNNs)在这一领域展现了良好的性能。先前的研究利用了GNNs在特定感受野(通常由跳数K表示)内捕获邻域信息的能力,以丰富用户和物品的语义。我们观察到,GNNs的最佳感受野在不同模态之间可能有所不同。本文提出了具有模态无关感受野的GNNs,这些GNNs为不同模态采用独立的感受野,以提升性能。我们的结果表明,某些数据集上,某些模态的最佳K值可以低至1或2,这可能会限制GNNs捕获全局信息的能力。为了解决这个问题,我们引入了基于采样的全局变换器(Sampling-based Global Transformer),通过均匀全局采样来有效地将全局信息整合进GNNs。我们进行的全面实验表明,我们的方法优于现有方法。我们的代码已经公开。

成为VIP会员查看完整内容
1

相关内容

【伯克利博士论文】神经网络中的结构与表征
专知会员服务
46+阅读 · 5月12日
【WWW2024】博弈论式反事实解释图神经网络
专知会员服务
29+阅读 · 2月17日
【WWW2024】使用图神经网络的消歧节点分类
专知会员服务
20+阅读 · 2月15日
【WWW2024】重新思考大规模图学习中的节点式传播
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
38+阅读 · 2023年6月4日
【NeurIPS 2022】张量分解图神经网络的高阶池化
专知会员服务
23+阅读 · 2022年11月29日
图时卷积神经网络:架构与理论分析
专知会员服务
24+阅读 · 2022年7月3日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
37+阅读 · 2021年5月28日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
浅析神经协同过滤NCF在推荐系统的应用
凡人机器学习
15+阅读 · 2020年10月17日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
407+阅读 · 2023年3月31日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【伯克利博士论文】神经网络中的结构与表征
专知会员服务
46+阅读 · 5月12日
【WWW2024】博弈论式反事实解释图神经网络
专知会员服务
29+阅读 · 2月17日
【WWW2024】使用图神经网络的消歧节点分类
专知会员服务
20+阅读 · 2月15日
【WWW2024】重新思考大规模图学习中的节点式传播
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
38+阅读 · 2023年6月4日
【NeurIPS 2022】张量分解图神经网络的高阶池化
专知会员服务
23+阅读 · 2022年11月29日
图时卷积神经网络:架构与理论分析
专知会员服务
24+阅读 · 2022年7月3日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
37+阅读 · 2021年5月28日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员