系统介绍可信推荐系统构建与技术
推荐系统(RS)服务于以人为中心的人工智能的最前沿,被广泛部署在web的几乎每个角落,并促进了人类的决策过程。然而,尽管RS具有巨大的能力和潜力,但它也可能会对用户、物品、生产者、平台,甚至整个社会产生不利影响,例如由于不透明而损害用户信任,对不同消费者或生产者的不公平对待,因个性化广泛使用用户私人数据而造成的隐私问题,等等。所有这些都导致了对可信推荐系统(TRS)的迫切需求,以减轻或避免这些不利影响和风险。在本次综述中,我们将介绍值得信赖和负责任推荐的相关技术,包括但不限于可解释推荐、推荐公平性、隐私感知推荐、推荐稳健性、用户可控推荐,以及这些不同视角在值得信赖和负责任推荐中的关系。我们希望通过此次综述,让读者对研究领域有一个全面的认识,并引起社会对可信推荐的重要性、已有的研究成果和未来的研究方向的关注。
推荐系统(RS)广泛应用于各种系统,如电子商务、社交网络、搜索引擎、新闻门户、招聘平台、智能助手、智能家居和智能城市服务,以及医疗保健和金融应用,其提供高质量服务的能力已得到公认,通过为每个人提供量身定制的内容,弥合用户和项目之间的差距。推荐系统不仅可以帮助用户更高效地找到相关信息,还可以通过提供相关建议来直接影响人类的决策过程,甚至可以通过将所选择的内容暴露给用户来塑造用户的世界观。总的来说,推荐系统是以人类为中心的AI研究的前沿,是人类和AI之间的桥梁。
然而,RS有利有弊,它既可能带来希望,也可能带来风险。越来越多的人担心,不负责任地使用推荐技术可能会带来反作用和不可信的问题,例如不透明导致用户信任受损,不同用户、生产者或平台受到不公平对待,大量使用用户隐私数据进行个性化带来的隐私问题,用户缺乏可变性导致用户已有兴趣的反复强化而产生的回音室——这些问题还在继续扩大。这些漏洞极大地限制了推荐算法的开发和部署,甚至可能导致严重的经济和社会问题。因此,在开发现代推荐系统时,仅仅考虑推荐准确度是不够的。我们还需要确保模型是公平的,没有被篡改,不会在不同的条件下崩溃,可以被人类理解。此外,RS的设计和开发过程也需要透明和包容。除了准确性之外,所有这些使推荐系统安全、负责、值得我们信任的考虑因素都与值得信赖的推荐系统研究有关。由于推荐系统是以人为中心的人工智能研究的一个重要方向,直接涉及到人类的循环,值得信赖的推荐系统(TRS)在过去的几年里一直领导着值得信赖的人工智能(TAI)的研究,包括可信性、公平性、鲁棒性、隐私等方面的定义、方法和评估,以及人类如何与值得信赖的人工智能系统进行交互。
因此,作为推荐系统研究背景下值得信赖人工智能的一个重要实例,在本综述中,我们将值得信赖的推荐系统引入为可解释性、公平性、隐私性、鲁棒性和可控性等可信赖核心方面的胜任RS。我们相信,在设计推荐系统时,将这些方面结合起来,将提高推荐系统的责任感,获得人类用户的信任,并显著促进推荐系统的社会效益。与现有综述的差异。最近已经有一些针对推荐场景中特定伦理问题的综述,如可解释性[61,340]、偏见和公平[54,77,178,225,288,328]、隐私保护[140,308]、用户可控性[142,143]等。这些调查成功地强调了推荐系统社会责任的重要性,导致了这一重要研究方向的进一步发展。然而,这些问题只是以各自独立的方式呈现出来,而对推荐中的可信度以及各种可信度观点之间的内在关系的系统认识是非常必要的。与我们的研究最接近的是Dong等人[82]和Mobasher等人[207]。然而,【82】只涉及用户社会关系、鲁棒性和可解释性,【207】只讨论了推荐中的攻击模型和算法鲁棒性,并没有考察这些概念之间的内在关系。相比之下,我们的工作在更全面的视角上引入了可信度,强调了视角之间的关系,并阐明了探索视角交叉的开放性问题和未来方向。
**与其他值得信赖的人工智能研究的关系。**由于它的重要性和必要性,关于值得信赖的人工智能(TAI)的含义有很多讨论和争论。特别是Toreini等人[273]研究了人工智能的信任,并将人工智能的属性总结为能力、仁慈、正直和可预测性;Varshney[280]认为,一个值得信赖的机器学习系统应该具有足够的基本性能、可靠性、人类互动和无私性;Liu等人[186]认为TAI是一种无威胁或无风险的项目,并关注实现可信度的六个维度:安全性与稳健性、非歧视与公平、可解释性、隐私性、问责性与可审计性以及环境福祉。此外,在2019年,欧盟(EU)提出了《值得信赖的AI1伦理准则》,要求人工智能系统应满足四项伦理原则:尊重人类自主权、防止伤害、可解释性和公平性[6]。虽然现有文献从不同角度探讨了诚信的空间,但得到最多认可和共识的几个关键方面是可解释性、公平性、隐私性、鲁棒性和可控性,我们认为这些也是TRS的关键组成部分。
该综述的主要读者是RS的研究人员、技术人员和专业人员,他们的目标是使推荐系统更值得信赖和负责任。另一方面,由于推荐系统是一个非常具有代表性和普遍性的以人为中心的AI系统,因此综述的目标读者还包括一般AI研究人员、实践者、理论家以及对AI的可信度、伦理和法规感兴趣的公共决策者。余下的综述安排如下:第2节介绍了推荐系统的初步知识和一些有代表性的推荐算法。第3、4、5、6、7节分别关注可解释性、公平性、隐私性、稳健性和可控性。最后一部分是对全文的总结。
可解释性
可解释推荐一直是业界和学术界的一个重要领域,旨在提高推荐系统的透明度、用户满意度和可信度[340,341]。具体来说,目标是提供可理解的理由以及推荐的项目,以帮助利益相关者做出更好和可靠的决策,同时提高推荐系统的透明度和可信度。推荐系统中的解释可以帮助模型开发人员理解和调试决策过程的工作机制,也可以促进使用系统产生的结果的最终用户更好地参与和信任。除了基于web门户的推荐系统,解释也被集成到对话式推荐界面中,如苹果Siri、微软Cortana和亚马逊Alexa,作为终端用户的直接交互门户[62]。它们能够提供清晰的用户偏好,智能地与用户进行交互,并结合一定的建议提供解释。
公平性
长期以来,推荐系统一直被认为是“善意”的系统,它帮助用户(例如,通过帮助他们找到相关的物品),并为企业创造价值(例如,提高销售额或提高客户留存率)[141]。然而,近年来,学术界和产业界都对建议书中的公平性问题提出了相当大的关注[178]。一些研究认为,RS可能在几个方面容易受到不公平的影响,这可能会对代表性不足或弱势群体造成不利后果[109,176,180,254]。例如,在电子商务系统中,RS可能主要促进某些生产者的利润最大化[103],或者在在线就业市场中,RS可能会导致种族或性别歧视,不成比例地向某些用户群体推荐低报酬的工作[109]。因此,为了提高RS[2]中不同利益相关者的满意度,研究推荐中的公平性,建立可信负责的制度是很重要的。
隐私
随着人们对收集和分析个人数据的机器学习方法的日益关注,数据隐私的道德需求已在强制性法规和法律中得到正式承认[22,281]。因此,近年来保护隐私的机器学习的研究得到了长足的发展[185]。人们相信,一个更值得信赖的网络服务应该提供保护隐私的解决方案,以避免系统的任何参与者不希望的信息暴露。在推荐系统和一般的机器学习领域中,都存在多种隐私定义[5,148,255,257],在大多数情况下,它们具有相同的成分:
鲁棒性
虽然推荐系统提高了信息搜索的效率,对客户和生产者都有好处,但它也可能使系统的用户在鲁棒性方面受到威胁,这为第三方通过配置文件注入攻击(又称先令攻击)操纵用户的推荐结果留下了空间。这些攻击的动机往往是恶意的,例如个人获得不正当利润、渗透某些商品/品牌的市场,甚至造成系统故障。由于推荐系统已经在许多高风险决策场景中被采用,这种漏洞引发了人们对如何在推荐系统中安全地采用机器学习技术的担忧,以及如何精心设计推荐系统,使其在抵御攻击者[13]的侵入时具有鲁棒性和可信性的担忧。
可控性
人工智能的可控性是人类面临的最重要的问题之一[313],它是用户与智能系统交互时必不可少的,在人机交互(HCI)领域已经研究了20多年[11,276]。在与人类互动的推荐系统中[154,199,245,250,258],可控性的重要性不可忽视。然而,尽管最近推荐性能有了成功的改进,但推荐系统中的可控性问题已经成为一个新的主要问题:目前大多数的RS大多是系统用户不可控的,用户只能被动地接收推荐结果。更具体地说,在使用非可控推荐系统时,用户只能被动地选择接受或不接受推荐结果,而很难控制自己收到的推荐结果是什么,更重要的是控制推荐系统对自己的了解。事实上,可控性是构建值得信赖的推荐系统的一个重要方面。最近的研究表明,即使推荐精度很高,用户也可能不满意[128,198],增加用户对推荐系统的可控性可以增加用户对推荐结果的满意度和信任度[133,142,146,153,197,305,340]。
结论
本综述总结了当前可信推荐系统研究的发展和趋势,旨在促进和推进未来可信推荐系统的研究和实施。本综述从技术角度为全面开发值得信赖的推荐系统提供了路线图。我们首先定义推荐系统的可信性,并通过对可信性原则的分类来说明它们的特点。随后,我们从可解释性、公平性、隐私性、可控性和鲁棒性等方面介绍并讨论了可信推荐系统的最新进展。我们描述了每个组成部分的基本思想,详细概述了每个组成部分的现有方法,并建议了这些组成部分未来的研究方向,特别是从跨方面的角度。总的来说,值得信赖的推荐系统的研究领域是重要的,并且随着一系列不同的方法和应用而蓬勃发展,同时,使推荐系统负责任和值得我们信任是我们的研究界需要应对的最大挑战之一。我们希望这项综述能够为这一领域感兴趣的研究人员提供足够的背景和知识来迎接这一挑战。