AI 科技评论按:2018 年围绕着人工智能的一连串技术丑闻的核心只有一个:问责制。当 AI 系统对我们的身体造成伤害时,谁应该为此负起责任?我们应该如何定义这些危害,一旦伤害造成后又该如何进行补救?假设想对此进行干预,干预的重点应该是什么?我们还需要哪些额外的研究和监管活动来保证干预效果?目前看来,这些问题都没有完善的答案,当下存在的人工智能管理框架也不足以支撑问责制的执行。然而随着系统的普遍性、复杂性和规模的逐渐增长,缺乏有意义的问责和监督机制(包括责任、担当和正当程序的基本保障)已经成为一项日益紧迫的问题。
在 2016 年和 2017 年的报告基础上,AI Now 研究所试图通过《AI Now 2018》来回应这一核心问题,并据此提出几个解决问题的提议。(完整版文件可通过 https://ai.yanxishe.com/page/resourceDetail/660 下载)对于每个提议他们都会总结出最新的挑战与研究,并就 AI 技术的开发、部署与监管情况提供改进建议。他们的建议基于严谨的学术研究、可操作性较强,能够帮助政策决策者、群众以及技术人员更好地理解并减轻可能出现的风险。由于 AI Now 研究所身处美国,过去专注的研究区域也是美国,再加上世界最大的几家人工智能公司都位于美国,因此报告会优先关注美国本土的情况。
人工智能领域现有的问题
人工智能领域的问责缺位问题日益突出
2018 年发生的几条技术丑闻表明,那些从人工智能发展中受益的人,与那些最有可能承受人工智能发展恶果的人,两者之间的隔阂正在进一步扩大。造成这种结果的原因很多,其中包括政府监管不到位、社会对人工智能的莫名狂热、公司的治理制度存在缺陷、企业与用户之间的权力不对称、负责技术研究的工程小组与负责 AI 系统部署的群体存在文化差异。这些分歧迫使人们更加重视偏见、歧视、正当程序、责任以及伤害问责制的建设。报告想强调,社会如今迫切需要针对不同行业强而有力的研究与监管。
人工智能被最大限度地用于监视活动
人工智能在美国、中国和许多国家被广泛用于监视活动,这点从传感器网络、社交媒体跟踪、面部识别和情感识别等技术的使用和普及程度上可以看出。这点变化不仅威胁个人隐私,同时加速了监控自动化的进程,进而导致人们被监控范围和频次的扩大。这带来了新的危险,并放大了许多长期存在的担忧。揭露欺瞒行为的情感识别技术被频繁使用,通过对人们脸部的近距离观察,情感识别技术能够解读人们的内心情感,无论是情绪、心理健康水平、参与程度或有无罪都将一览无遗。需要警惕的是,这种技术在人们不知情的情况下已经被用来进行一些具有歧视性和不道德的活动。面部识别技术同样不让人省心,它强化了从刑事司法到教育再到就业等领域各种扭曲和隐性的歧视性做法,并对多个国家的人权与公民自由形成了威胁。
在未保障公民权利的情况下,政府频繁使用那些会对个人和社区造成影响的自动化决策系统
许多国家的政府机构基于提升效率和节省成本的目的,对自动决策系统 (ADS) 进行采购和部署。问题是这些决策系统好多都未经过严格检验,功能设计上也不一定完美匹配目标任务,由此导致了对个人权利的非法侵犯。更糟糕的是,当他们做出错误和不好的决定时,我们想质疑、争辩、纠正这些错误往往会面临困难。据了解,一些机构正试图提供更加符合透明、正当程序和保障基本权利的系统,可类似贸易保密这样的法律又会对系统的审查与测试形成阻碍。无论是机构的积极努力还是近期可见的一些战略诉讼,报告提炼并概述了可以形成系统问责制的有效途径。
各种缺乏管制和监控、基于人口的人工智能实验
硅谷以其「快速行动,打破现状」的理念闻名世界,在这种理念的影响下,许多当地企业被迫快速试验新技术,而不怎么重视类似谁承担风险这种实验失败后的问责制度的建设。过去一年里,AI Now 研究所见到越来越多在公共场所部署的人工智能实验,却未曾见实验方提供任何的通知、同意或问责协议。由于这些实验尚未大范围出现问题,AI Now 研究所发现好大一部分实验还在继续进行。可一旦事故发生时,我们往往不清楚责任该由哪个单位/个人承担。因此,主体责任的界定、事故发生时如何追责仍然是一项优先级较高的任务。
技术解决公平、偏见与歧视问题时局限性
为避免机器做出具有歧视性的决定,人们做了许多工作,其中包括为机器设计「公平」的数学算法模型。如果模型缺乏充分考虑社会、政治与历史背景因素的算法框架,这些「公平」的数学公式几乎不可避免地要遗漏几项关键因素,导致忽略深层次的问题,最终造成更严重的伤害与更多的不公正。为了确保我们有力解决核心问题——将焦点从平等转移到公正,我们目前迫切要做的是拓宽研究视角,将研究范围扩大至人工智能的公平性与偏见等问题,而不要局限于数学领域。
对伦理原则的遵守与落实
为了回应人们对人工智能社会影响力日益增长的担忧,今年出现了许多创建和部署人工智能技术的伦理原则和指导方针。然而研究表明,如果道德承诺不与责任制度还有工作场合的实践直接产生联系,它们对软件开发领域的影响几乎是微乎其微。此外,这些规范和准则往往很少得到执行、监督或偏差后果的支持。换句话说,只有将伦理准则融入到人工智能的发展过程中,同时得到对公众利益负责的执行机制的支持,才能有助于人工智能问责制度的建设与发展。
报告接下来的内容将详细阐述这些课题,除了反映最新的学术研究成果外,还会介绍 7 项富有建设性的改进策略:
将人工智能的公平性研究从数学等价性和统计公平性问题扩展至公平性问题。
研究与跟踪创建人工智能所需的基础设施,其中包括材料供应链的核算。
仔细说明创建与维护人工智能系统所需的劳动形式。
致力于推动人工智能更深层次的跨学科研究。
分析在人工智能领域出现的种族、性别与权力课题。
制定新的干预政策与诉讼战略。
在研究人员、公民与科技领域组织者之间建立合作联盟。
这些策略旨在积极重塑人工智能领域,以解决目前日益加剧的权力不平衡,这种权力不平衡导致那些开发人工智能系统并从中获利的人持续获得受益,从而牺牲了那些承受人工智能发展恶果的人群。
《 AI Now Report 2018 》的 10 条建议
政府需要扩大特定部门机构的权力来监管、审计和监控特定领域的技术,以便更好对人工智能技术进行监管。
我们需要通过严格的法规对人脸识别与情感识别的使用进行监管,以保护公众的利益。
人工智能领域迫切需要新的治理方法,正如这份报告所示,大多科技公司的内部治理结构尚未能很好地对人工智能系统产生的结果进行问责。
人工智能公司应该为了公众利益放弃那些妨碍进行问责的商业秘密与法律主张。
技术公司应该为良心拒服兵役者、员工组织以及道德检举者提供必要的保护。
消费者权益机构应该对人工智能产品与服务实施「广告真实」法。
人工智能公司需要超越「流水线模式」,致力于解决工作场所出现的排挤与歧视行为。
我们需要对人工智能系统「全栈供应链」进行详细梳理,以保障公平性、问责制与透明度在人工智能领域的落实。
我们需要意识到在人工智能问责制度的建设问题中,诉讼、劳工组织以及社区需要更多来自资金和其他方面的支持。
大学里的人工智能项目应该将研究视野扩大至计算机科学与工程学科以外的内容。
大学里的人工智能项目应该将研究视野扩大至计算机科学与工程学科以外的内容。
via:《AI Now Report 2018》,AI Now Institute(https://ainowinstitute.org/AI_Now_2018_Report.pdf)
点击阅读原文,查看 美国政府为何连年向推特索要用户信息