第七期C-Law午餐会“算法可解释性治理路径探究”成功举办

2019 年 1 月 3 日 腾讯研究院

2018年12月26日中午,由腾讯研究院与对外经济贸易大学数字经济与法律创新研究中心联合举办的第七期C-Law午餐会在对外经贸大学法学院宁远楼成功举办。

C-Law午餐会是由腾讯研究院发起的以网络法理论和实务前沿问题为核心内容的系列学术研讨活动。第七期的探讨主题为“算法可解释性治理路径探究——以场景视角和架构理论为基石”,由腾讯研究院副院长杨乐主持,由对外经济贸易大学法学院院长助理、数字经济与法律创新研究中心执行主任张欣助理教授作为报告人。来自北京大学、中国人民大学、对外经济贸易大学、华东政法大学、中央财经大学、北京师范大学、首都经济贸易大学、东北师范大学等多位理论界专家和来自中国信息通信研究院、新浪互联网法律研究院、北京清律律师事务所等实务界的多位专家学者参加本次研讨。

Figure 1图为第7期腾讯C-LAW午餐会现场

Figure 2图为腾讯研究院副院长杨乐主持午餐会

张欣助理教授的报告主要分为四个部分。第一部分对算法治理这一主题的兴起进行了背景阐释。第二部分阐述了为什么可解释性成为治理算法时的一种思维模式。第三部分对算法可解释性的现有治理路径进行了分析。第四部分提出了算法治理创新的多元化路径。在第一部分中,张欣助理教授指出算法可解释性是伴随着算法架构本身的不断演化而逐渐兴起的一个主题。例如,与初级算法的线性特征与可解释性不同,在深度学习的架构中,算法结构的复杂性和非线性导致算法运行过程难以提供与人类自身认知体系进行匹配并具有逻辑性的解释。而算法已经深深嵌入到社会中,“算法经济”和“算法社会”的来临使得算法的适用过程人们愈发对其伴随而生的一系列问题加以关注。算法歧视、算法合谋、算法霸权、算法短视等诸多算法适用层面的危机需要得到更多法律上的回应。

在报告的第二部分中,张欣助理教授解释了算法可解释性成为政策制定者在寻求算法治理时主要诉诸路径的内部和外部视角。从算法可解释性要求的内部视角看,扩大算法在应用场景的现有限制和对算法偏差的纠正需求使得算法的开发过程逐步寻求可解释性,以满足立法者的预期和算法自身的优化。从算法可解释性要求的外部视角,即使用者、公众、监管者等视角而言,算法厌恶、媒体和学术型塑的公众话语对算法的认知、在公共事业领域产生算法适用危机以及算法架构上的行为主体责任分配问题使得对算法决策的公平性和可解释性要求逐渐增加。从决策绩效的视角来看,尽管人脑的决策过程也是一种黑箱,但是传统制度构造下已经构建完备的事前、事中、事后约束机制使得人们一定程度上可以避免武断决策并保证决策的可信性和正当性。传统制度构造下的约束机制对于算法决策难以足够约束并常常失灵,这使得人们对于算法具备可解释性这一要求更为急迫。从人类的感知体系而言,要求算法具备可解释性意味着要求自动化决策过程具有透明性,而这意味着人类对这一决策过程的掌控感,从而为通知、参与、异议、救济等重要权利的行使提供重要基础。因此,有学者提出了大数据正当程序和技术正当程序的科技治理路径。尽管算法透明度有可能导致算法反向设计等问题,但是在公共事业场景下的算法可解释性已经逐步在政策制定者、算法开发者、算法使用者、行业协会等多元主体之间达成了共识。

在主旨演讲的第三部分中,张欣助理教授梳理了当下的算法可解释性治理路径,剖析其中存在的不足并进行了总结和反思。透过对欧盟GDPR采用的可解释权和美国纽约州通过的算法问责法的比较,张欣助理教授剖析了算法可解释性的政策目标、价值平衡和以消费者视角与以公共利益视角的治理路径,并对两种路径的特点、不足与完善建议进行了详尽分析。在演讲的第四部分,张欣助理教授提出了回归架构理论和场景视角,以此为基础探索符合我国国情的算法治理途径。她提出通过算法架构复杂性、算法可解释性技术实现的可能性、用户在算法应用场景中的行为空间和控制能力以及公共利益的相关性,划分了四个基础性应用场景,分别探讨了多元主体对应的责任和义务,以及算法可解释性在这些场景下的差异化要求。

Figure 3图为对外经济贸易大学法学院院长助理,数字经济与法律创新研究中心执行主任张欣助理教授

在张欣助理教授的报告结束后,午餐会进入到了热烈的讨论环节。讨论环节由腾讯研究院副院长杨乐主持。杨乐院长首先对张欣助理教授的报告表达了自己的肯定。杨院长认为,报告中所提到的对算法可解释性的内外部视角的理解,以及对消费者个人视角和公共利益视角的提出是非常令人印象深刻的。对于欧盟和美国的算法治理路径而言,探求算法治理背后的规律和价值具有十分重要的意义。这对于我国政策制定者探索算法监管的方向也具有启发意义。

在自由讨论环境,北京清律律师事务所主任熊定中律师首先发言。熊律师从三个角度对算法的可解释性问题进行了深入评析。在对算法进行可解释性要求的原因上,熊定中主任提出,算法与传统法律均属于规则,作为规则的法律需要进行解释,同样作为规则的算法也需要解释。其次,对算法进行解释,应当侧重于解释取样,而非倾向于解释过程。最后,熊定中主任提出,因为人类自身评判而产生的歧视具有随机性,人们对此是可以接受的。而因算法评判产生的歧视具有系统性,多次歧视后人们便无法接受,这印证了算法在实施层面应当进行纠偏的必要性。

Figure 4图为北京清律律师事务所主任熊定中律师

北京师范大学法学院教授、数字经济与法律研究中心主任汪庆华首先对张欣助理教授有关算法的可解释性要求依据构架和场景进行领域细分的主张表示赞同。汪庆华教授进一步介绍了纽约市关于《算法问责法案》的立法背景,提出算法透明性和公布源代码之间的关系。同时汪教授进一步提出,在场景设置目前还尚未存在共识的情况下,对于算法本身提出一个一般化的可解释原则具有必要性。

Figure 5图为北京师范大学数字经济与法律研究中心主任、法学院汪庆华教授

中国人民大学法学院助理教授、未来法治研究院平台治理研究中心执行主任熊丙万从算法的结果角度出发,提出了算法治理的比较性和延展性视角。熊丙万助理教授提出首先需要去追问算法到底在何种程度上使我们的生活变差了,人们可能对于自身的地位和状态做出不恰当的假设因而影响对于算法的认知。其次,熊丙万助理教授认为,在数字时代的用户个性化推荐场景中,不仅需要强调算法过程的公开性与透明性,还应当强调算法结果的可接受性,强调算法本身的是不是可计算的问题。

Figure 6图为中国人民大学未来法治研究院平台治理研究中心执行主任、法学院熊丙万助理教授

东北师范大学政法学院张凌寒副教授认同张欣助理教授对算法解释进行长远划分的态度,并进一步提出,基于理论基础的不同,商业自动化决策领域与公共问题决策领域的算法解释要求必须是分开的。张凌寒副教授认为,在商业领域里,算法解释是纠正信息不对称性的工具,而在公共事业领域,算法解释关系到公民权利运行的正当性。算法的解释要求不仅可以依据场景进行划分,也可依据解释内容进行划分。一方面算法本身需要解释,另一方面在算法和其他因素叠加共同导致决策错误时,应当正确区分不同因素对于决策错误的影响程度。

Figure 7图为东北师范大学政法学院张凌寒副教授

中国政法大学法治政府研究院副院长赵鹏副教授对于算法可解释性问题提出了两点评论。首先,在自动化决策时代,我们把很多本身应当由人这个道德主体做决策的东西让步给机器之后,虽然带来了很多便利,但是意味着对我们生活的一个丧失,通过可解释性,我们想重新找回这个控制。赵鹏副教授认为这一研究是非常有意义的。其次,基于公共利益的视角来说,算法治理还需要注意利用算法进行决策不仅只产生单一决策的效果,还会产生衍生效果和累计效应,因此对于算法的可解释要求应更多的基于公共利益视角进行论证。

Figure 8图为中国政法大学法治政府研究院副院长赵鹏副教授

《中外法学》主编、北京大学法学院王锡锌教授首先类比行政决定的程序设置问题指出行政程序对于行政决定合法性、正当性的意义和功用,并颇具启发性地指出,算法可解释性首先应当被理解为算法理性的问题。当政策制定者要求算法可解释的时候其背后所要寻求的是权力行使的理性问题。因此程序或者可解释性只是途径和手段,我们还需要关注算法治理过程中更高的价值和要求。其次,王锡锌教授提出,无论是算法可解释性,还是其他新型科技带来的新型法律问题,首先应当将其置放于传统的法律分析框架当中。就算法可解释性而言,其是可以被纳入到现有的法律框架中的,即政策制定者要求算法技术的运行是以理性化的方式展开的,避免运行过程的非理性问题。再次,算法的可解释问题至少应当被划分为两类场景分别加以讨论。第一类是执行性的自动化决策程序场景。此种场景下代码的功用只是执行设计者设定的决策程序,因此应当具有较高的可解释性程度,即应当能够反映出决策理性的要求。第二类是具有深度学习能力的人工智能,其架构的复杂性在一定程度上决定了可解释性的难度较高。这恰如人类在决策时也会受到潜意识或者直觉影响的现象,即使是做出决策的主体本身也难以对其进行全面解释。因此,当我们说“算法黑箱”或者说算法未能得到有效解释时,应当首先区分算法本身到底是执行性的程序代码,还是具有学习和自主意识功能的代码,并注意在这两种场景下设计者的控制能力和算法本身的架构复杂性问题。最后,王锡锌教授还提出了算法可解释性的标准问题。王锡锌教授指出,在行政和司法决定意义上,说明理由被认为是解释的要求之一,说明理由在法律上至少有两个标准:刑事或者是行政层面的程序性要求。在这种标准下,未提供充足的解释和理由就可能导致被撤销的法律后果。其次是具有程序和实体双重维度的要求,即虽然提供了理由和解释,仍然需要从实体上对其进行判断。两种标准下后一种标准更加复杂。最后,王锡锌教授还对算法可解释性的对象问题、算法治理中的数据来源问题、隐私保护与歧视性政策等问题分享了重要看法。

Figure 9图为《中外法学》主编、北京大学法学院王锡锌教授

华东政法大学教授、《华东政法大学学报》主编马长山指出,对算法治理的研究,首先要将其放在人工智能发展的整体路径上加以思考,这可能会有两种场景,一是仿制人的思维逻辑来运行的算法,一是按照纯粹计算逻辑来运行的算法。两种不同的场景,对于算法可解释性的要求也自然会有所不同。其次,在公共话语中,对于算法有一种较为普遍的“技术中立”的元假设,使得人们未能对算法的作用形成客观、全面的认知。在算法走进应用场景过程中,要经由数据清洗、归集和建模等一系列活动,它所形成的自动化决策就会自觉不自觉地带入人的主观取向和价值判断,因此,无论是公益算法还是商业算法,都不太可能是纯粹的、中立的,难免会渗入某种偏好而产生“有意”的算法偏差,因此,需要予以警惕和防范。第三,人们在情感上更能容忍人脑决策的黑箱,却不太容易接受算法决策的黑箱。人们很清楚,人脑决策的黑箱是随机性的、个别性的和不断变化的,它是一种概率性的问题;而一旦形成算法黑箱,则会成为机制性的、普遍性的、稳定性的问题,就不再是概率而是必然了。因此,即便是算法黑箱并没有使人们的生活变差、危险变多,人们仍有理由对代表科技进步的算法抱有更高的安全期待。第四,对于新兴科技的法律问题,应尽量从技术话语和技术路径,转向法律话语和法律路径来讨论和研究;第五,在讨论算法规制时,除了呼吁和要求算法的透明性和公开性外,还应对重要领域的公益算法和商业算法,设置必要的算法审计这一制度机制,例如,可以在法院中设立从事算法审计的法官、在相关的监管部门中设立专门的算法审计行政官员。当然,算法审计需要坚持公权谦抑的原则,不宜阻碍技术创新,其审计范围仅应限于生命安全、医疗健康等重大问题。总之,算法治理是一个复杂的时代问题,需要审慎对待和精细的制度设计。

Figure 10图为《华东政法大学学报》主编、华东政法大学马长山教授

中国人民大学新闻学院博士后黄淼从新闻传播专业视角对算法治理的问题进行了论述。黄淼博士指出,在新闻传播信息服务行业里,对算法的利弊持有不同立场。有的调查认为受众更愿意接受由机器筛选,根据偏好推送出来的信息,而有的调查则认为算法的推荐机制干预了信息选择。因此,黄博士提出应当以对算法的态度存在不同立场作为论据,以此论证算法纠偏、算法监督等不同问题下应当遵循的筛选标准。

Figure 11图为中国人民大学新闻学院博士后黄淼

中央财经大学法学院副教授、数字经济与法治研究中心执行主任刘权认为,在大数据时代,算法即法律,算法即权力。由于算法的专业性,可能需要政府和算法设计者联合企业在事前进行算法解释。在另外一些场景下,可能需要赋予受到算法影响的主体或者竞争者对于算法企业在事后进行解释的需求。但是我们也需要注意,算法也需要被保护。出于对知识产权和商业秘密的保护,算法可以向某些特定的群体进行小范围的公开解释,在解释对象上面做一个限定。其次,刘权主任指出要限定解释范围,核心算法可以不解释、不公开,对于算法进行解释的条件应当做出明确的规定。最后,刘权主任提出规制算法的手段具有多样性,应注重算法解释与事后处罚的结合,以多重方式对算法进行综合监管。

Figure 12图为中央财经大学数字经济与法治研究中心执行主任、法学院刘权副教授

中国信息通信研究院研究员何波认为,当我们讨论算法规制时首先需要明确规制的到底是什么。正如刚才马老师所说,算法一旦走向应用,就不是中立的,所以我觉得,我们对于算法监管,规制的不是算法技术本身,而是算法如何应用的问题。其次是如何规制算法的问题。刚才很多老师都讲到,算法问题的一个核心其实就是数据的问题,所以是否有可能将算法规制问题简化成对数据收集使用管理的问题。我们可以看到,像欧盟GDPR的相关规定,就是把算法的问题放在数据保护的这个法律体系下进行规制的。所以,我觉得这也是我们立法对算法规制可以考虑的思路,即:在个人信息保护法里面,从数据收集使用的角度对算法规制做出一个一般性的规定,然后再结合不同的场景,配套以相应的具体法律规定。第三点是有关算法透明度的问题,由于知识产权和商业秘密的保护问题,算法是不能公开的。那么需要进一步讨论的是,算法可解释的问题是否能够保障与算法的实际情况不存在差别。最后是关于算法解释的成本问题。例如,算法的运用里面最典型的就是用户推送,那推送到每一个人的结果是不一样的,那么是否要每一个人都解释一次?那这样的话,算法解释的方式可能会增加企业的成本和负担。

Figure 13图为中国信息通信研究院研究员何波

本次专题午餐会的专家学者对于算法的可解释性这一问题展开了热烈地讨论,现场气氛热烈,碰撞出了很多启发性的思想和理念。

— — | END | — —

登录查看更多
0

相关内容

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。
大数据安全技术研究进展
专知会员服务
92+阅读 · 2020年5月2日
【天津大学】知识图谱划分算法研究综述
专知会员服务
107+阅读 · 2020年4月27日
专知会员服务
124+阅读 · 2020年3月26日
电力人工智能发展报告,33页ppt
专知会员服务
128+阅读 · 2019年12月25日
【数字孪生】数字孪生标准体系探究
产业智能官
47+阅读 · 2019年11月27日
分布式核心技术知识图谱,带走不谢
架构师之路
12+阅读 · 2019年9月23日
下一代AI系统基石:知识图谱将何去何从?
AI前线
17+阅读 · 2019年6月4日
2019 GAITC 专题论坛之十二丨智慧交通--智慧城市的核心动脉
中国人工智能学会
7+阅读 · 2019年5月6日
2018年中国供应链金融行业研究报告
艾瑞咨询
7+阅读 · 2018年11月20日
【知识图谱】知识图谱+人工智能=新型网络信息体系
产业智能官
12+阅读 · 2018年11月18日
深度|拥抱人工智能报告:中国未来就业的挑战与应对
机器人大讲堂
6+阅读 · 2018年9月24日
以史为镜 | VC/PE的前世今生
线性资本
28+阅读 · 2018年7月11日
智能时代如何构建金融反欺诈体系?
数据猿
12+阅读 · 2018年3月26日
Arxiv
20+阅读 · 2019年11月23日
Arxiv
15+阅读 · 2019年6月25日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
19+阅读 · 2018年6月27日
VIP会员
相关资讯
【数字孪生】数字孪生标准体系探究
产业智能官
47+阅读 · 2019年11月27日
分布式核心技术知识图谱,带走不谢
架构师之路
12+阅读 · 2019年9月23日
下一代AI系统基石:知识图谱将何去何从?
AI前线
17+阅读 · 2019年6月4日
2019 GAITC 专题论坛之十二丨智慧交通--智慧城市的核心动脉
中国人工智能学会
7+阅读 · 2019年5月6日
2018年中国供应链金融行业研究报告
艾瑞咨询
7+阅读 · 2018年11月20日
【知识图谱】知识图谱+人工智能=新型网络信息体系
产业智能官
12+阅读 · 2018年11月18日
深度|拥抱人工智能报告:中国未来就业的挑战与应对
机器人大讲堂
6+阅读 · 2018年9月24日
以史为镜 | VC/PE的前世今生
线性资本
28+阅读 · 2018年7月11日
智能时代如何构建金融反欺诈体系?
数据猿
12+阅读 · 2018年3月26日
Top
微信扫码咨询专知VIP会员