作者 | 小智
本文经授权转载自AI研究所(ID:IflyVoiceCloud)
一年前,49岁的Elaine Herzberg在穿过亚利桑那州坦佩的一条马路时,一辆Uber公司的汽车撞向了她。最终,Elaine经抢救无效死亡。
彼时,无人驾驶正呈现一片热火景象,但人们想不到的是,它还会以站在审判席上的形式让自己进一步“出名”。
是的,这起重大交通悲剧的肇事者,并不是人,而是这辆车本身。或者更准确地说,是它的自动驾驶系统。
这场审判是漫长的,直到一年后的今天,一个不尽完美的结果:Uber不承担刑事责任。但当时在车上负责安全的司机Rafael Vasquez(Uber安排了后备司机以防自动驾驶系统出问题)的行为应该由坦佩警方进一步调查。
最终,在AI引起的事故中,人仍然承担了主要的责任。
但是,在可以预见的未来,面对一辆无需后备司机,真正的无人车肇事,我们的审判是不是会更加漫长和痛苦?
也许来的太早,但无人车事故等AI发展过程中必然会发生的阵痛,正在不断提醒我们,是时候正视AI的道德伦理问题。
AI与前几个世纪的革命性技术都有着巨大的不同。
我们曾经如何提高生产力?通过提升能源动力(蒸汽、内燃、电),或提高数据处理及信息传递效率(电话、计算机)。
但这些技术的运用是物质的,机械式的,不具有抽象的思维属性。比如你操作纺织机,按一下开关它执行一个工作,不多不少。
但AI是一项认知技术。
正如其名“人工智能”,它拥有精神活动,具备思考能力。它是一个中枢系统,能通过“接触、认知、理解、学习”这一系列“大脑活动”后,运用一系列设备完成复杂任务。因此,它可以应用于各种领域,并具有自主性与创造性。
显然,机器人比纺织机能执行更多需求
基于深度学习等理论的发展,AI将越来越像人类一样去思考,工作起来也愈发灵活,似乎实现终极目标:让AI可以代替人类完成世界上大部分工作的日子已经越来越近了。
可我们经常会忽视一个问题,生活中一切复杂的事,都充满了选择与变化,这不只是高性能可以解决的。
人类如何行动?靠是非观、价值观、道德意识等等,我们一般称为“灵活思考”。
AI如何行动?在没有道德伦理引导时,即使拥有与人类无差别的思考能力,它也是“任务优先”。AI基于指令、逻辑、最多再加一些理性来做出行动,我们称为“死脑筋”。
只有“死脑筋”的AI是可怕的。
在电影《2001太空漫游》中,人类的木星探测飞船搭载的超级电脑HAL 9000收到了两条指令:1. 不惜一切代价完成木星任务;2. 向船员隐瞒实情。其实两条指令互相矛盾,因为船员对任务完成至关重要,但HAL最终毫不犹豫地停止了船员的冬眠维生装置。
回到最近的现实,18年震惊全国的悲剧“空姐搭滴滴顺风车遇害案”中,暴露出滴滴软件的社交功能,可以针对性地智能推送乘客过往评价给司机,此时系统优先考虑的是如何提高匹配接单率和商业效益,却忽视了女性等潜在受害者的利益。
因此,从人类的角度来说,道德伦理的作用,就是让AI也能像人一样正确地“灵活思维”,即能跨越指令的束缚,规避对人类造成伤害的风险。
“也许我们所有人都应该暂停片刻,把我们的研究重点从提升AI能力转移到最大化AI的社会效益上面。”
——史蒂芬·霍金
抛开AI拥有人心或灵魂的科幻思辨,目前它们的思维活动仍然无法做到像人类那样有弹性,所以,让AI学习的道德伦理,也必须尽可能采用简洁直接的方式。
比如,做选择题。
什么选择题?在出现价值冲突时,选择符合社会效益的一方。
当工厂发生火灾时,用于保护公司财产的服务机器人会面临:
A.抢救公司财产(原最高指令)
B.营救被困工人(道德)
而接受道德伦理引导的机器人会选择B。
让机器做选择题是一个繁琐的过程,因为价值冲突出现在不同的人类活动中,衍生出不可计数的抉择,我们能做的,就是在AI的实践中发现这些冲突,并从伦理的角度设置原则。
按美国耶鲁大学教授温德尔·瓦拉赫和认知哲学家科林·艾伦2008年年合著《道德机器:如何让机器人明辨是非》一书中的观点,这是一种自上而下的道德伦理养成,即把人类已经成熟的伦理系统、道德理论体系灌输进去,驱动决策。
再比如,设定“基本道德”。
除了具体决策原则,AI还应具有一个宏观的程式,以尽可能在没有针对陌生场景时,做出正确选择。
还是要提到“机器人三定律”——
1.机器人不得伤害人类,或看到人类受到伤害而袖手旁观;
2.在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;
3.在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。
很多人认为三定律是纸面上的一套原则,但阿西莫夫在书中为其设置了很严谨的执行方案,根据《机器人短篇全集》中的叙述,三原则被放入机器人内置的“机器道德调节器”——将道德规范直接嵌入AI的编码底层,通过技术手段实现对AI伦理的规范。
感谢阿西莫夫,虽然源于幻想,但基于AI遵循逻辑的特性而设置的这套定律,成为了学界在进行AI伦理研究时的重要参考。
机器人三定律的意义是提出了一个AI的道德思路:即人的生命>客观任务>机器自身,借此保证AI对社会效益做出贡献,而不是失控后对人类的未来发展产生威胁。
不可否认的是,即使有方向,有计划,人类在AI的道德伦理培养上仍然道阻且长。
首先,人类自身的道德伦理体系尚未成熟.
虽然人类文明已走过数千年,但在道德和伦理上,我们至今没有形成普世的,明确的标准。目前被大家所承认的,还是一些符合多数派的大体原则。在自身尚不成熟的情况下,对AI进行道德伦理的设计时必将遭遇分歧。
除了道德设计,分歧还将延续到对AI造成的事故/罪案的审判中,集中在两个问题:
如何问责?比如Uber无人车肇事案,除了驾驶系统和安全员外,开发系统的程序员、汽车测试负责人、车载感应设备的供应商是否都有不可推卸的责任?在缺乏明确的法律和道德条约的前提下,每一方都会站在自己的立场去解释。
由AI担责时,如何裁定?AI的行为可以具有和人一样的效力,即AI是否按自我决策做出行动?如果确定AI担责,那么依据何种条约来定罪,是人类的法律条文,亦或是AI的道德伦理原则?在这些论题上,不同道德基准的不同群体也会争论不止。
其次,价值冲突的两难决策不可规避。
前文我们提到,在价值冲突中,AI应优先保护生命。
但如果是像“电车难题”那样,两边都是生命时?AI要如何取舍“小我”和“大我”?
救5人还是救1人?
在AI的道德基准仍然由人类设定的前提下,这些两难情况下的判断离不开人类的影响。
但正如第一个挑战指出的,人类自身的道德伦理标准是不统一的。
根据麻省理工学院在2018年10月发表在《自然》杂志的论文,把“电车难题”放入自动驾驶场景,设计突发情况下无人车面对不同生命如何选择的问题。并通过研究团队开发的“道德机器”征集200多个国家,200多万在线参与者的意见。
结果,参与者的答案显示出了多种不同倾向,有的倾向于保护多数人和年轻人,有的则倾向保护老人,甚至有的更愿意选择保护动物!
可以看出,如果这些倾向中的一种被作为原则编入AI的程序,那么必将大范围的在各类两难抉择中,放大该群体的价值判断。而这对于被忽视的弱势一方又势必是不公平的。
最后,机器学习有产生偏见的风险。
像人类一样,掌握了机器学习能力的AI也不会始终理性客观。
以人脸识别为例,去年2月《纽约时报》就指出针对不同种族的人脸识别,准确率存在巨大差异。同样,亚马逊的AI雇员系统在对员工简历进行学习后,在打分工作中对女性的分数都会偏低。这是因为系统在学习外貌和性别等特征数据时,产生了“偏见”。
AI的算法会对人类输入数据的频率以及偏好进行放大,并逐渐形成既定的认知,更为头痛的是,和人类会有意识地去抵制偏见不同,AI只会不断加深自己所学到的“偏见”
综上,当AI如人脑一般复杂时,即使有着程序和道德约束装置的存在,我们仍无法100%保证AI会成为一个理想的道德楷模。
即便如此,AI拥有道德意识仍然是必要的。因为——
人类的法律中经常会提到的一个概念是“刑事能力”,即行为人构成犯罪和承担刑事责任所必须具备的刑法意义上辨认和控制自己行为的能力。
而为AI赋予道德伦理的意义之一,就是让AI具有自己的“刑事能力”,当AI造成事故甚至是犯罪时,有依据证明其行为经过了道德选择与决策,并据此进行对AI本身或其开发者的追责,即“承担责任”。
而对于AI道德伦理培养中遇到的问题,人类也正在采取更加灵活的解决方式。
除了自上而下的灌输,瓦拉赫和艾伦还在《道德机器》中提到的,自下而上的,通过数据驱动,AI自行对道德与伦理问题进行思辨,实现意识的进化;或者采用混合进路系统,即将人工输入指令与AI自主学习结合起来,让AI在普世价值规范的基础上,与人类针对微观的抉择难题进行互动,不断完善其道德伦理系统。
但归根结底,作为AI的创造者,一切还是要回归于人。
人类不能期望将所有的事都一揽子扔给AI去解决,毕竟,负责任的AI,离不开在道德伦理的完善上负起责任的人类。
(文章图片来源于网络及网页截图,版权归原作者所有,如有侵权请联系作者删除)