欧盟在4月8日发布了一系列关于如何发展AI道德的指导意见。不同于阿西莫夫的“机器人学三定律”,它们的目的并不在于提出一个大的框架来阻止AI变身杀人机器,相反的,它们旨在解决当AI融入了医疗、教育、消费等领域,真正成为人类生活的一部分后,会给社会带来的一些模糊、分散的细节问题。
举个例子,当AI未来真正进入医疗领域为患者进行诊疗,欧盟可不希望看到它出现种族歧视和性别歧视的问题。顶撞人类医生的反对意见这种事当然也不应该发生。
欧盟为阻止AI暴走,也是下了大力气了。这一次指导意见的出炉,就是52位专家群策群力的结果。他们从专业的角度出发,提出了未来AI系统应该满足的七大原则。
AI不应该践踏人类自治。人类不应该被AI系统操纵或威胁,人类应该能够干预或监督AI的每一项决定。
AI应该是安全和准确的。它不应该轻易受外部攻击的影响,它应该非常可靠。
AI搜集到的个人数据应该是安全且私密的。它不应该被随便访问,不应该轻易被盗。
用于创建AI系统的数据和算法应该是可访问的,应确保AI决策的可追溯性。换句话说,运营商应该能够解释他们的AI系统是如何做出决策的。
AI提供的服务应该适用于所有人,无论年龄、性别、种族或其他任何特征。系统不应该有任何偏向。
AI系统应该是可持续的(即对生态负责),并且应该“增强积极的社会变革”
AI系统应该是可审计的,并且被现有的公司举报人保护举措涵盖。系统的负面影响应该事先得到承认和报告。
一直以来,欧盟都很关注AI伦理的问题,从《欧盟人工智能》到《人工智能道德准则》,欧盟虽然在AI技术上没有先发制人,但在“以人为本”方面显然走在了前列。
早在2018年4月,欧盟就把发展人工智能的重心放在了人工智能价值观的构建上,希望以此彰显欧盟在人工智能领域的特色。2018年12月,欧盟在收集了500多条建议之后,发布了由人工智能高级专家组编写的《人工智能道德准则》草案,提出了“值得信赖的AI”这个概念。而现在,AI七大原则也由欧盟率先提出,欧委会表示下一步他们还要为以人为本的AI制定国际共识,在G20峰会这样的国际场合探讨此事。
AI的迅猛发展到底会不会给人类带来机器人末日,其实一直是许多人心里的隐忧。在追求AI的安全性方面,无论是研究者还是普通人都没有停止过关注。不过对于欧盟提出的这7大原则,也不是人人都买账的。
比如就有网友提出,凭啥AI话语权一定要不如人类,它要是就比人类强呢?
也有人觉得关于透明度的要求不太现实,神经网络本来就是一个黑盒子。 不过真理总是越辩越明的,积极反思并公布类似指南的正面意义还是得到了网友们的肯定,只是AI伦理显然不是一个文件两个文件的事儿。我们受益于技术,我们也忧虑技术的发展方向,在这个方向上的探索或许还有很长的路要走。
“有道德的AI”是欧盟理想中的双赢局面,你又是怎么看的呢?
— 完 —
量子位AI+系列沙龙--智慧城市
加入社群
量子位AI社群开始招募啦,量子位社群分:AI讨论群、AI+行业群、AI技术群;
欢迎对AI感兴趣的同学,在量子位公众号(QbitAI)对话界面回复关键字“微信群”,获取入群方式。(技术群与AI+行业群需经过审核,审核较严,敬请谅解)
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
喜欢就点这里吧 !