互联网、大数据和人工智能是当代及未来发展的驱动力。互联网拓展了人类的生存空间,大数据是21世纪的“新石油”,人工智能成了社会发展的引擎。世界各国纷纷将互联网、大数据和人工智能的发展上升至国家发展战略层面。同时,互联网、大数据和人工智能的发展面临诸多现实的伦理和法律问题,如网络安全、个人隐私、数据权益和公平公正等。
关于这些问题的伦理学研究常常是制定相关法律法规和政策的前置议程。和发达国家一样,我国在制定互联网、大数据和人工智能发展战略时,也极其重视伦理和法律问题的研判与应对。
2015年7月,国务院发布《国务院关于积极推进“互联网+”行动的指导意见》,要求加快“互联网+”相关立法工作,落实加强网络信息保护和信息公开的有关规定,加快推动制定网络安全、个人信息保护、互联网信息服务管理等法律法规,逐步完善相关标准规范、信用体系和法律法规。
2015年8月,国务院发布《促进大数据发展行动纲要》,高度重视数据共享、数据安全和隐私保护。《促进大数据发展行动纲要》要求明确数据共享的范围边界和使用方式,厘清数据共享的义务和权利,加强安全保障和隐私保护,界定个人信息采集应用的范围和方式,明确相关主体的权利、责任和义务,加强对国家利益、公共安全、商业秘密、个人隐私、军工科研生产等信息的保护,加强对数据滥用、侵犯个人隐私等行为的管理和惩戒,推动数据资源权益相关立法工作。
2017年7月,国务院发布《新一代人工智能发展规划》,对人工智能伦理问题研究提出了明确要求,将人工智能伦理法律研究列为重点任务,要求开展跨学科探索性研究,推动人工智能法律伦理的基础理论问题研究。《新一代人工智能发展规划》指出人工智能可能冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则,要求加强前瞻预防与约束引导,最大限度地降低风险,确保人工智能安全、可靠、可控发展。最引人注目的是,《新一代人工智能发展规划》关于人工智能伦理和法律制定了三步走的战略目标:到2020年,部分领域的人工智能伦理规范和政策法规初步建立;到2025年,初步建立人工智能法律法规、伦理规范和政策体系;到2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。
技术发展与社会环境戚戚相关。在大力发展高新技术的同时,必须高度重视可能的社会风险和伦理挑战,必须加强技术伦理学研究。技术伦理学是规范性的,也是建设性的。技术伦理学研究旨在揭示技术发展面临的伦理难题,为技术发展清理路障,同时为技术发展提供价值指引,确保技术在造福人类的轨道上发展。
随着互联网、大数据与人工智能对人类社会影响的普遍化,其伦理问题不再只是寓于哲学伦理学圈内的议题,已成为政界、业界、学界和公众高度关注的公共话题。对这些问题的研究也不再局限于哲学伦理学方法,搭建多学科交叉研究和交流的平台势在必行。
李伦教授主编的这套丛书是搭建这种平台的一种尝试。这套丛书将运用伦理学、法学、社会学和管理学等的理论与方法,关切人类未来,聚焦互联网、大数据和人工智能面临的现实问题,如网络内容治理问题、网络空间数字化生存问题、数据权和数据主权问题、隐私权和自主权问题、数据共享和数据滥用问题、网络安全和信息安全问题、网络知识产权问题、大数据价值开发的伦理规范问题,以及人工智能的道德哲学、道德算法、设计伦理和社会伦理等问题,并为治理互联网、大数据和人工智能的伦理问题提供对策建议。
郭东明
中国工程院院士,大连理工大学校长