原文:ARTIFICIAL INTELLIGENCE POLICY: A PRIMER AND ROADMAP
作者:Ryan Calo
编译:曹建峰 付一方
Ryan Calo是华盛顿大学法学院副教授,专攻机器人、人工智能的法律政策研究。
编者按:清早,智能音箱唤你起床,算法开始推荐你喜欢的萌宠视频,出门无人驾驶车辆已经在门口等候。人工智能技术的发展似乎在一夜间无孔不入,而迎面而来的隐私泄露、算法歧视等等伦理道德法律问题皆不能忽视。
来自华盛顿大学法学院副教授Ryan Calo,针对人工智能算法系统的可能带来的冲击,从正义与公平、安全与认证、隐私与权力、税收与失业、问责等方方面面做出深入剖析,指出政策制定对于AI技术发展的重要指引作用。
可以说,人工智能政策研究决定了AI发展的尺度,政策制定比技术发展更紧迫。欧美的学者研究,对于中国的政策制定,亦有借鉴意义。
引言
2018年人工智能依然很火,而且随着时代的发展和技术的进步,人工智能将变得越来越重要,成为人们日常生活必不可少的组成部分,影响人类社会的方方面面。在此背景下,美欧各国都已开始研究制定相应的政策规范,并对人工智能未来的发展方向进行规划。
目前对于人工智能,并不存在一个明确、统一的概念。总体来看,人们认为它是一套试图使机器能够像人类一样从事某些特定活动的系统。例如,现在的无人驾驶汽车,就是使机器能够像人类一样操控汽车,这些技术的开发也称为机器学习(ML)。
人工智能可以应用于工商业、制造业、军事等多个领域,人工智能的发展无疑会给我们的经济、社会及国防安全带来新的影响。良好的政策和完善的战略计划是应对这些影响的不二选择。
正义与公平
(justice and equity)
人工智能政策研究的一个重要内容是人工智能算法系统的公平性、问责性以及透明度。这些问题可能还涵盖人工智能的相关功能或产品中反映出的偏见性问题,以及人工智能在财务和健康检查等方面的应用问题,甚至是其在司法领域能否帮助司法人员做出涉及被告人自由的判决等一系列问题。
现在有两个政策性问题。其一,最小化偏见(反歧视法,消费者保护,行业标准)的最佳做法是什么。其二,如何保证人工智能的风险和收益在社会环境中平均分布。
偏见性问题体现出了人工智能在发展过程中可能出现的不平等性问题,特别是政府在存在规则和保障程序的刑事审判系统等领域内使用人工智能的时候,这种不平等性则更加凸显。
此外,争取透明度和公平性不应以牺牲效率为代价,否则人工智能的工作过程可能会花费很长时间,实际上反倒会降低其准确性。所以需要进行权衡。
2
安全与认证
(safety and certification)
许多系统——例如完全无人驾驶的汽车——都是通过对人类环境中的物体施加直接的和物理的控制来实现的。人们需要经过培训并获得认证才能从事这些活动,比如驾驶。自动驾驶汽车、机器人等人工智能应用引出了关于人工智能系统的相关标准以及是否有用于确保能达到这些标准的程序和技术的问题。
机器人和其他网络物理系统(cyber-physical system)必须是安全的。问题是怎么才能做到安全以及我们怎么知道它是安全的。
例如无人驾驶的汽车,是不是只有其能够做到比人类驾驶更安全时,我们才会大范围应用它。但“比人类更安全”似乎是一个不适当的审查标准。
该系统是否必须比传统汽车或最先进的需要一定人类辅助的车更安全?该系统是否必须比全体人类或所有的驾驶方式都安全?无人驾驶的汽车要做到比人类驾驶的安全度高多少,我们才能够接受或继续鼓励制造它们?
这些问题最终都不是技术问题,而是政策问题。
政策制定者应为无人驾驶汽车、无人机和人工智能的其他现实应用设置确定的安全阈值,并确定一个合适的方法来验证其是否符合这些标准。具体方式包括政府审批、第三方独立认证和行业自我认证等。
有些工作当由人来完成时,需要其获得相应的资格认证,但当由人工智能去执行时,似乎不再需要过于正式的认证要求。
此外,现如今,人们越来越清楚地认识到,人工智能使已经难以解决的网络安全问题变得更加复杂化了。
机器学习和其他人工智能技术有可能改变网络安全方面的攻防能力,正如美国DARPA举办的竞赛中人工智能代理人进行自主攻击和网络防卫一样,因此,必须开发新的防御模式、标准和技术,以应对信息和物理基础设施安全方面的新挑战。
3
隐私与权力
(privacy and power)
人工智能能够识别人们无法获取的信息的能力有可能会打破公共和私有之间已经不明确的界限。这意味着,看似简单的信息共享却可以洞察出深度敏感性的信息。
人工智能与数据的使用紧密相连,只要政府和公司能够跟踪和预测人们的一举一动,其就能够进行模式识别,更深层次而言就是大数据。
政策方面的重大问题是,消费者通常不会细心留意何为共享信息。这也是目前欧洲电子指令改革中一个亟待解决的问题。
如果将来公共场合需要对每个人进行面部识别,想想都是可怕的。了解过多的个人信息可能会使这些人的信息被巧妙地控制住,甚至会被别有用心的人利用。
其实,政策方面不好解决的问题是如何能在保证人工智能民主化的前提下,促进保护隐私的技术、法律、社会以及其他方面措施的进一步完善和发展。
4
税收制度与失业
(taxation and displacement of labor)
人工智能发展带来的另一项问题是应该如何应对机器人替代人类从事一些工作的情况,如无人驾驶的卡车等,而且是否要对人工智能系统进行征税(比尔盖茨赞成的做法)。
应对这一情况,我们要进行适当的体制安排,储备专业的人工智能政策知识。整体层面的政策挑战是如何更好地把人工智能和机器人的专业知识介绍给各级政府及其各个部门,让他们能够更加自信地制定出更好的政策规定。并且,社会各界都呼吁决策者开放之前专有的人工智能系统以对其进行合法审查。
5
自主武器
(autonomous weapons)
人工智能决策中的一个特殊问题是自主武器的适用。关于自主武器的发展和部署存在很多观点。国际上的普遍观点认为,人们决不应该放弃“有意义的人类管理”而让机器做出杀人的决定。
然而,关于有意义的人类管理含义和范围的争论仍然存在。监管是否足够?目标选择?这些行为需要延伸到防御系统,还是只有进攻战术和武器?这些重要问题都还没有解决。
还有一个问题是谁应该对机器做出的行为负责。武器自动化在某些情况下似乎是可取的,甚至是不可避免的。例如,美国军方似乎不大可能允许其军事对手的反应能力比其自身的控制机制更快或者更灵活。
人工智能的某些用途以人的决定为前提,但其中隐含着深层次的政策和道德问题——例如人们通过输入算法为无人机选择攻击目标。
正如人类学家马德琳•克莱尔•伊利希所说的那样,人们担心士兵会被置于为不法行为承担责任的循环中。因此,决策者必须致力于建立全面的人工智能责任框架,且该框架能使所有利益相关者都感到公平和满意。
6
其他方面
(other aspects)
以上列出的问题并没有穷尽人工智能可能对法律和政策造成的影响。除了隐私、劳动力或使用自主武器这些具体的政策内容之外,还会出现跨领域问题。
比如,如何确定治理人工智能的最佳制度配置,怎样将集体资源投入到有利于个体和社会的人工智能发展中,怎么去解决人工智能问责制的障碍。
首先,在人工智能的最佳制度配置方面,如果采用分散式的管理模式,那么联邦机构、州、城市和其他政府单位仅单独处理与他们最相关的问题,这种方法对各种情况下出现的差异非常敏感,并保留了一定的试验空间。
但有些人认为这种做法是有问题的。公众认为法律无法赶上技术创新的发展速度。有些时候,当技术领先于法律通过时的水平的时候,法律或规则就过时了。
因此,政府必须具备必要的专业知识来管理深层次上以技术为核心的不断发展中的社会。当国家没有自己的专家时,它必须依赖于私人公司或其代理人的自利言论,或者采取一些不利于创新的死板的决定和行动。
因此,总体的政策挑战是如何最好地将人工智能和机器人技术引入所有分支机构和各级政府,以便他们可以更加自信地做出更好的决策。
其次,在投资和采购方面,奥巴马政府发表了一个关于这个话题的独立报告,指出利用人工智能的方法就是为它投资。投资范围不仅应包括促进了计算机科学发展且有助于确保美国在全球的竞争力的基础的人工智能研究,而且还应支持人工智能社会影响力的社会科学研究。
此外,政府可以通过决定购买的产品而对政策产生影响,这种做法有时不太会得到认可。因此,各级政策制定者都应该考虑政府购买的支持人工智能的产品的质量和特性以及它们的制造公司。
决策者还可以使用合同来保障隐私、安全和其他方面的权利。这反过来可以将整个市场推向更加负责任的运行方式,并使整个社会受益。
最后,在消除责任制障碍方面,目前许多正在使用或开发的人工智能系统都是专有的,然而,在许多情况下,外部分析评价对于问责制来说是必要的。
一些报告、简报和研究论文呼吁决策者消除实际或认为存在的问责障碍,包括:(1)商业秘密法,(2)计算机欺诈和滥用法,以及(3)数字千年版权法案中的反规避规定。这使得许多专家建议规划出消除这些障碍的官方政策举措,以完善人工智能行业责任制。
结论
人工智能现在是政策界十分关注的一个问题。为了规范和促进人工智能的发展,有必要为人工智能的前景做出一个大致的规划,并在正义与公平、安全与认证、隐私与权力、税收与失业等方方面面结合本国国情制定相应的政策规则。人工智能技术正在迅速发展,要尽量使法律与技术发展水平相适应,使得政府有能力应对人工智能发展过程中对经济、社会、就业等方面可能造成的影响。