人工智能伦理是国际社会近几年关注的焦点话题。最近,国内外都有重大进展,OECD成员国采纳了首个由各国政府签署的AI原则,即“负责任地管理可信AI的原则(Principles for responsible stewardship of trustworthy AI)”,这些原则之后被G20采纳,成为人工智能治理方面的首个政府间国际共识,确立了以人为本的发展理念和敏捷灵活的治理方式。无独有偶,我国新一代人工智能治理原则也于近日发布,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八项原则,以发展负责任的人工智能。
在此背景下,在腾讯研究院过去几年对人工智能伦理进行的持续研究的基础上,腾讯研究院和腾讯AI Lab联合研究形成了这份人工智能伦理报告《智能时代的技术伦理观——重塑数字社会的信任》,认为在“科技向善”理念之下,需要倡导面向人工智能的新的技术伦理观,包含三个层面:技术信任,人工智能等新技术需要价值引导,做到可用、可靠、可知、可控(“四可”);个体幸福,确保人人都有追求数字福祉、幸福工作的权利,在人机共生的智能社会实现个体更自由、智慧、幸福的发展;社会可持续,践行“科技向善”,发挥好人工智能等新技术的巨大“向善”潜力,善用技术塑造健康包容可持续的智慧社会,持续推动经济发展和社会进步。
以下为报告主要内容:
互联网的前三十年,是一个连接一切的故事,这个故事以前所未有的速度和规模改变着人类和人类社会。如今,以人工智能、大数据为代表的新技术集群加速发展,有望引领第四次工业革命,智能时代的大幕正在拉开,无处不在的数据和算法正在催生一种新型的人工智能驱动的经济和社会形式,生物层、物理层、技术层可能融合为三位一体。简言之,人工智能正在改变这个世界。
因此在当前,以人工智能为代表的这一轮新技术具有巨大的潜力和价值,无疑能够成为一股“向善”的力量,继续造福于人类和人类社会。但任何具有变革性的新技术都必然带来法律的、伦理的以及社会的影响。例如,互联网、大数据、人工智能等数字技术及其应用带来的隐私保护、虚假信息、算法歧视、网络安全、网络犯罪、网络过度使用等问题已经成为全球关注焦点,引发全球范围内对数字技术及其应用的影响的反思和讨论,探索如何让新技术带来个人和社会福祉的最大化。
因此,人工智能伦理开始从幕后走到前台,成为纠偏和矫正科技行业的狭隘的技术向度和利益局限的重要保障。正如华裔AI科学家李飞飞所言,要让伦理成为人工智能研究与发展的根本组成部分。在此背景下,从政府到行业再到学术界,全球掀起了一股探索制定人工智能伦理原则的热潮,欧盟、德国、英国、OECD、G20、IEEE、谷歌、微软等诸多主体从各自的角度提出了相应的人工智能伦理原则,共同促进AI知识的共享和可信AI的构建。要言之,各界已经基本达成共识,人工智能的发展离不开对伦理的思考和伦理保障。
从最早的计算机到后来的信息再到如今的数据和算法,伴随着技术伦理的关注焦点的转变,技术伦理正在迈向一个新的阶段。在新的发展阶段,我们提出新的技术伦理(technology ethics),探索AI、个人、社会三者之间的平衡。就AI技术自身而言,AI需要价值引导,应做到可用、可靠、可知、可控(“四可”),从而让人们可以信任AI,让AI可以给个人和社会创造价值;就AI与个人之关系而言,幸福是人生的终极目的,需要构建和谐共生的人机关系,保障个人的数字福祉和幸福工作权利,实现智能社会人机共生,让个体更自由、智慧、幸福地生活和发展;就AI与社会之关系而言,AI所具有的巨大的“向善”潜力是历史上任何时候都无法比拟的,可以成为一股“向善”的力量,助力经济社会健康包容可持续发展。
信任(trust):人工智能需要价值引导,做到可用、可靠、可知、可控(“四可”)
就AI而言,虽然技术自身没有道德、伦理的品质,但是开发、使用技术的人会赋予其伦理价值,因为基于数据做决策的软件是人设计的,他们设计模型、选择数据并赋予数据意义,从而影响我们的行为。所以,这些代码并非价值中立,其中包括了太多关于我们的现在和未来的决定。更进一步,现在人们无法完全信任人工智能,一方面是因为人们缺乏足够信息,对这些与我们的生活和生产息息相关的技术发展缺少足够的了解;另一方面是因为人们缺乏预见能力,既无法预料企业会拿自己的数据做什么,也无法预测人工智能系统的行为。因此,我们需要构建能够让社会公众信任人工智能等新技术的规制体系,让技术接受价值引导。
作为建立技术信任的起点,我们认为,人工智能等新技术的发展和应用需要遵循伦理原则。为此,秉持“负责任研究与创新”(responsible research and innovation)、“科技向善”等理念,我们进一步阐述“四可”原则,用以引导负责任地发展和应用工智能技术,使其可以造福于人类和人类社会。并将“四可”翻译为“ARCC”(available,reliable,comprehensible,controllable,即ARCC,读作ark)。正如传说中保存人类文明火种的诺亚方舟,人工智能的健康发展需要以“伦理方舟”为保障,确保将来友好、和谐、共生的人机关系。
第一,可用(available)。发展人工智能的首要目的,是促进人类发展,给人类和人类社会带来福祉,实现包容、普惠和可持续发展。为此,需要让尽可能多的人可以获取、使用人工智能,让人们都能共享技术红利,避免出现技术鸿沟。可用性还意味着以人为本的发展理念、人机共生、包容性以及公平无歧视,要求践行“经由设计的伦理”(ethics by design)理念,将伦理价值融入到AI产品、服务的设计当中。
第二,可靠(reliable)。人工智能应当是安全可靠的,能够防范网络攻击等恶意干扰和其它意外后果,实现安全、稳定与可靠。一方面人工智能系统应当经过严格的测试和验证,确保其性能达到合理预期;另一方面人工智能应确保数字网络安全、人身财产安全以及社会安全。
第三,可知(comprehensible)。人工智能应当是透明的、可解释的,是人可以理解的,避免技术“黑盒”影响人们对人工智能的信任。研发人员需要致力于解决人工智能“黑盒”问题,实现可理解、可解释的人工智能算法模型。此外,对于由人工智能系统做出的决策和行为,在适当的时候应能提供说明或者解释,包括背后的逻辑和数据,这要求记录设计选择和相关数据,而不是一味追求技术透明。换句话说,技术透明或者说算法透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。相反,在AI系统的行为和决策上实现有效透明将更可取,也能提供显著的效益。此外,在发展和应用人工智能的过程中,应为社会公众参与创造机会,并支持个人权利的行使。
第四,可控(controllable)。人工智能的发展应置于人类的有效控制之下,避免危害人类个人或整体的利益。短期来看,发展和应用人工智能应确保其带来的社会福祉显著超过其可能给个人和社会带来的可预期的风险和负面影响,确保这些风险和负面影响是可控的,并在风险发生之后积极采取措施缓解、消除风险及其影响。长期来看,虽然人们现在还无法预料通用人工智能和超级人工智能能否实现以及如何实现,也无法完全预料其影响,但应遵循预警原则(precautionary principle),防范未来的风险,使未来可能出现的通用人工智能和超级人工智能能够服务于全人类的利益。
当然,信任的建立,需要一套规则体系。在这些原则之下,人们可以探索制定标准、法律、国际公约等。对于人工智能需要采取包容审慎、敏捷灵活的治理方式,应避免严格、细致的法律要求,而是可以采取事后监管或者通过出台标准、行业公约、伦理框架、最佳实践、技术指南等调整人工智能等新技术的发展应用,支持行业自律。
幸福(happiness):在人机共生的智能社会,确保人人都有追求数字福祉、幸福工作的权利
各种智能机器正在成为人类社会不可或缺的一部分,和我们的生活和生产息息相关。这给人类与技术之间的关系提出了新的命题,需要深入思考智能社会如何实现人机共生(human-computer symbiosis)。
第一,保障个人的数字福祉,人人都有追求数字福祉的权利。一方面需要消除技术鸿沟和数字鸿沟,全球还有接近一半人口没有接入互联网,老年人、残疾人等弱势群体未能充分享受到数字技术带来的便利。另一方面减小、防止互联网技术对个人的负面影响,网络过度使用、信息茧房、算法偏见、假新闻等现象暴露出了数字产品对个人健康、思维、认知、生活和工作等方面的负面影响,呼吁互联网经济从吸引乃至攫取用户注意力向维护、促进用户数字福祉转变,要求科技公司将对用户数字福祉的促进融入到互联网服务的设计中,例如Android和iOS的屏幕使用时间功能、Facebook等社交平台的“数字福祉”工具、腾讯视频的护眼模式对用户视力的保护等。
第二,保障个人的工作和自由发展,人人都有追求幸福工作的权利。目前而言,人工智能的经济影响依然相对有限,不可能很快造成大规模失业,也不可能终结人类工作,因为技术采纳和渗透往往需要数年甚至数十年,需要对生产流程、组织设计、商业模式、供应链、法律制度、文化期待等各方面做出调整和改变。虽然短期内人工智能可能影响部分常规性的、重复性的工作。长远来看,以机器学习为代表的人工智能技术对人类社会、经济和工作的影响将是深刻的,但人类的角色和作用不会被削弱,相反会被加强和增强。未来二十年内,90%以上的工作或多或少都需要数字技能。人们现在需要做的,就是为当下和未来的劳动者提供适当的技能教育,为过渡期劳动者提供再培训、再教育的公平机会,支持早期教育和终身学习。
可持续(sustainability):践行“科技向善”,善用技术塑造健康包容可持续的智慧社会
技术创新是推动人类和人类社会发展的最主要因素。而这一轮技术革命具有巨大的“向善”潜力,将对人类生活与社会进步带来突破性的提升。在二十一世纪的今天,人类拥有的技术能力,以及这些技术所具有的“向善”潜力,是历史上任何时候都无法比拟的。换言之,这些技术本身是“向善”的工具,可以成为一股“向善”的力量,用于解决人类发展面临着的各种挑战,助力可持续发展目标。与此同时,人类所面临的挑战也是历史上任何时候都无法比拟的。联合国制定的《2030可持续发展议程》确立了17项可持续发展目标,实现这些目标需要解决相应的问题和挑战,包括来自生态环境的,来自人类健康的,来自社会治理的,来自经济发展的,等等。
将新技术应用于这些方面,是正确的、“向善”的方向。例如,人工智能与医疗、教育、金融、政务民生、交通、城市治理、农业、能源、环保等领域的结合,可以更好地改善人类生活,塑造健康包容可持续的智慧社会。因此,企业不能只顾财务表现,只追求经济利益,还必须肩负社会责任,追求社会效益,服务于好的社会目的和社会福祉,给社会带来积极贡献,实现利益与价值的统一。包括有意识有目的地设计、研发、应用技术来解决社会挑战。如今,“人工智能造福人类”(AI for Good)已经成为全球发展趋势,呼吁与行动并存。以腾讯为例,自2018年1月在国内首次提出“科技向善”以来,腾讯已将“科技向善”作为新的愿景与使命,并身体力行地在医疗、社会治理(如寻找失踪人口)、FEW(粮食、能源、水源)等方面践行“科技向善”理念。
以智能时代的技术伦理重塑数字社会的信任
互联网、人工智能等数字技术发展到今天,给个人和社会带来了诸多好处、便利和效率,未来还将持续推动经济发展和社会进步。如今,步入智能时代,为了重塑数字社会的信任,我们需要呼吁以数据和算法为面向的新的技术伦理观,实现技术、人、社会之间的良性互动和发展。最终,我们希望以新的技术伦理观增进人类对于技术发展应用的信任,让人工智能等技术进步持续造福人类和人类社会发展进步,塑造更健康包容可持续的智慧社会。
--END--
以上为部分报告内容,欲阅读完整报告,请关注腾讯研究院公众号,后台回复关键词 技术伦理观报告 获得下载链接。