纽约大学AI Now研究所发布《AI Now 2019 年度人工智能报告》, 100页pdf

【导读】纽约大学AI Now研究所发布了第四份关于人工智能现状的年度报告。2019年AI Now报告重点关注行业AI不平等加剧等主题,政府决策者在人工智能中的作用与责任,还评估了人工智能道德与有意义的问责制之间的差距,并研究了组织和监管在人工智能中的作用。



地址:https://ainowinstitute.org



关键要点


1. 决策者应禁止在影响人们生活和获得机会的重要决策中使用情感识别。在那之前,人工智能公司应该停止部署它。情感识别技术是面部识别技术的一个子类,声称可以探测诸如性格、情绪、心理健康和其他内心状态等方面的信息。鉴于情感识别技术存在争议的科学基础,它不应该被允许在人类生活的重要决策中发挥作用,比如面试或聘用谁、保险的价格、病人的疼痛评估或学生在学校的表现。在去年建议实施严格监管的基础上,各国政府应明确禁止在高风险决策过程中使用情感识别。



2. 政府和企业应该停止在敏感的社会和政治环境下使用面部识别,直到风险被充分研究和适当的监管到位。2019年,面部识别在许多领域迅速扩展。然而,越来越多的证据表明,这种技术会造成严重的伤害,尤其是对有色人种和穷人。在敏感的社会和政治领域——包括监视、警务、教育和就业——应暂停使用面部识别,因为在这些领域,面部识别会带来无法追溯的风险和后果。立法者必须补充(1)透明度要求,让研究人员,政策制定者和社区评估和理解限制和调节面部识别的最佳方法;(2)为使用这些技术的社区提供保护,使其有权自行评估和拒绝使用这些技术。



3. 人工智能行业需要进行重大的结构性改革,以解决系统性的种族主义、厌女症和缺乏多样性的问题。人工智能行业惊人地同质化,这在很大程度上是因为它对待女性、有色人种、性别少数群体和其他未被充分代表的群体的方式。为了开始解决这个问题,应该公开更多关于薪酬水平、对骚扰和歧视的回应率以及招聘做法的信息。它还需要终结薪酬和机会不平等,并为高管们提供真正的激励,以创造、促进和保护包容性的工作场所。最后,采取的任何措施都应该解决两级劳动力的问题。在这两级劳动力中,许多科技公司的有色人种都是薪酬过低、弱势的临时工、供应商或承包商。



4. 人工智能偏见研究应该超越技术层面的修正,关注更广泛的政治和人工智能使用的后果。对人工智能偏见和公平性的研究已开始超越以统计平等性为目标的技术解决方案,但需要对人工智能的政治和后果进行更严格的审查,包括密切关注人工智能的分类实践和危害。这就要求外勤中心的“非技术”学科,其工作传统上审查这些问题,包括科学和技术研究、关键的种族研究、残疾研究,以及其他与社会背景密切相关的学科,包括如何构建差异、分类工作及其后果。


5. 政府应要求公开披露人工智能行业对气候的影响。考虑到人工智能发展对环境的重大影响,以及人工智能行业的权力集中,政府有必要确保大型人工智能供应商向公众披露人工智能发展的气候成本。与汽车和航空行业的类似要求一样,这种披露有助于为更明智的气候和技术集体选择奠定基础。信息披露应包括通知,允许开发人员和研究人员了解他们使用人工智能基础设施的具体气候成本。气候影响报告应与任何抵消或其他缓解战略的核算分开。此外,各国政府应利用这些数据,确保人工智能政策考虑到任何拟议的人工智能部署的气候影响。



6. 工人应该有权对剥削性和侵入性的人工智能提出异议——工会可以提供帮助。启用人工智能的劳动管理系统的引入引发了有关工人权利和安全的重大问题。这些体制的使用亚马逊仓库超级InstaCart-pools权力和控制手中的雇主和危害主要是低薪工人(颜色的不成比例的人是谁)通过设置生产力目标与慢性损伤、死亡和施加心理压力,甚至是不可预测的算法减薪,破坏经济稳定。员工有权对这些决定提出质疑,并就安全、公平和可预见的工作场所标准达成一致。传统上,工会一直是这一过程的重要组成部分,它强调了企业有必要让员工组织起来,而不必担心遭到报复。


目录:


便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“NYAI” 就可以获取《AI Now 2019 年度人工智能报告》下载链接索引 



专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看5000+AI主题知识资料
展开全文
Top
微信扫码咨询专知VIP会员