https://www.zhuanzhi.ai/paper/f89bf5e9ab6b630c51edddff406566f4
推荐系统在web应用中扮演着过滤大量信息和匹配用户兴趣的基础角色。虽然许多人致力于开发各种场景下更有效的模型,但对于推荐系统可解释性的探索却处于滞后状态。解释可以帮助改善用户体验和发现系统缺陷。本文在正式引入与模型可解释性相关的要素后,通过提高表示学习过程的透明度,提出了一种新的可解释推荐模型。具体地说,为了克服传统模型中的表示纠缠问题,我们修改了传统的图卷积来区分不同层次的信息。此外,每个表示向量被分解为若干段,其中每个段与数据中的一个语义方面相关。与之前的工作不同,在我们的模型中,因子发现和表示学习同时进行,我们能够处理额外的属性信息和知识。通过这种方式,该模型可以学习对用户和项的可解释和有意义的表示。与传统方法需要在可解释性和有效性之间进行权衡不同,我们所提出的可解释模型在考虑了可解释性后,其性能没有受到负面影响。最后,通过综合实验验证了模型的性能和解释的可信度。