论文题目: Multi-modal Graph Convolution Network for Personalized Recommendation of Micro-video
论文摘要: 个性化推荐在许多在线内容共享平台中起着核心作用。为了提供优质的微视频推荐服务,重要的是考虑用户与项目(即短视频)之间的交互以及来自各种模态(例如视觉,听觉和文本)的项目内容。现有的多媒体推荐作品在很大程度上利用多模态内容来丰富项目表示,而为利用用户和项目之间的信息交换来增强用户表示并进一步捕获用户对不同模式的细粒度偏好所做的工作却较少。在本文中,我们建议利用用户-项目交互来指导每种模式中的表示学习,并进一步个性化微视频推荐。我们基于图神经网络的消息传递思想设计了一个多模态图卷积网络(MMGCN)框架,该框架可以生成用户和微视频的特定模态表示,以更好地捕获用户的偏好。具体来说,我们在每个模态中构造一个user-item二部图,并用其邻居的拓扑结构和特征丰富每个节点的表示。通过在三个公开可用的数据集Tiktok,Kwai和MovieLens上进行的大量实验,我们证明了我们提出的模型能够明显优于目前最新的多模态推荐方法。
作者简介:
Tat-Seng Chua,新加坡国立大学计算机学院的KITHCT讲座教授。1998年至2000年期间,他是该校的代理和创始院长。蔡博士的主要研究兴趣是多媒体信息检索和社交媒体分析。特别是,他的研究重点是从网络和社交网络中提取、检索和回答文本、视频和实时媒体的问题。他是新加坡国立大学(NUS)和清华大学(tshuanguaniversity)在中国建立的一个耗资数百万美元的联合中心的负责人,该中心旨在开发现场媒体搜索技术。该项目将在北京和新加坡的城市内收集、挖掘、搜索和组织用户生成的内容。他的小组在2000年初定期参加TREC-QA和TRECVID评估。
Xiangnan He,中国科技大学信息科学技术学院教授,研究兴趣包括信息检索、数据挖掘和多媒体分析;担任过多个顶级会议(包括SIGIR、WWW、KDD、MM等)的(高级)PC成员,以及TKDE、TOIS、TMM等期刊的定期审稿人。