12月26日,中国信息通信研究院在“2024中国信通院ICT深度观察报告会”科技伦理治理分论坛上发布了《人工智能伦理治理研究报告(2023年)》。 报告在总结人工智能伦理治理有关概念和特点的基础上,对人工智能生成内容、自动驾驶、智慧医疗三个典型应用场景的伦理风险进行分析,并结合国内外人工智能伦理治理实践,提出人工智能伦理治理的四点展望,以期为更加广泛深入的讨论提供参考。
报告前言
伴随人工智能的迅速发展和广泛应用,人类正在进入一个“人机物”相融合的万物智能互联时代,人工智能技术的应用在给人们带来生活和工作便利的同时,也带来了系列伦理挑战。2022年3月,中共中央办公厅国务院办公厅印发《关于加强科技伦理治理的意见》,对科技伦理治理工作进行了系统部署,将人工智能列入科技伦理治理的重点领域。
人工智能伦理是开展人工智能研究、设计、开发、服务和使用等活动需要遵循的价值理念和行为规范。人工智能技术的突破发展,引发了技术应用的伦理争议,特别是生成式人工智能技术的发展应用引发了偏见歧视、隐私侵犯、责任不明、虚假内容传播等伦理挑战。 为应对人工智能技术应用带来的风险,世界各国积极推动人工智能伦理国际治理合作。各国政府通过出台人工智能伦理原则、发布人工智能伦理治理指引、提供技术治理工具等加强本国本地区的人工智能伦理治理监管。我国通过积极完善人工智能伦理制度规范,探索人工智能伦理治理技术化、工程化、标准化落地措施,加强人工智能治理国际合作等举措推动人工智能向善发展。 人工智能伦理治理是多主体协作的全流程治理,是以敏捷机制协调人工智能发展与安全的重要治理模式。未来一段时期,人工智能伦理治理将与产业创新活动增强协调;多学科多主体参与、分类分级治理、技术工具开发等措施将有效推动人工智能伦理治理机制完善;全民科技伦理素养的提升将有效防范人工智能伦理风险;全球人工智能伦理治理合作也将推动人工智能技术造福人类。 ** 报告原文 **