来源:中国联通研究院
前言 人工智能(Artificial Intelligence,简称Al)作为战略性新兴产业,作为新的增长引擎,日益成为科技创新、产业升级和生产力提升的重要驱动力量。生成式人工智能工具、人脸识别、智能工厂、智慧城市等人工智能技术现已广泛落地,这些令人难以置信的技术正在快速改变人们的生活,对经济社会发展和人类文明进步产生深远影响。与此同时,人工智能技术也带来难以预知的各种风险和复杂挑战,潜在的滥用对以前被认为是不可侵犯的个人敏感信息构成了前所未有的威胁,技术自身缺陷导致智能决策在多个领域存在不确定性和敏感信息泄露,系统被非法控制导致个人隐私被未授权的第三方获取和推理。因此,人工智能技术引发的隐私与安全问题已经成为时下的关注话题,也是当前人工智能领域所面临的最大挑战之一。 为了更好的推动新一代人工智能安全发展,让人工智能用的放心,各国政府和企业越来越重视人工智能隐私保护。人工智能隐私保护指的是在数据采集存储和数据使用共享,模型训练以及模型推理应用的全生命周期过程中有效的保护用户数据隐私不泄漏,不被未授权第三方获取或推理。因此,在人工智能处理大量个人数据和敏感信息的过程中,如何加强数据隐私管控;在人工智能训练过程中,如何保证数据质量,避免原始数据隐私泄露;在人工智能推理应用过程中,如何防御攻击引起的数据隐私推理,如何保护模型保密性与完整性日渐成为国际人工智能的重要议题。 本白皮书从人工智能隐私保护的内涵出发,从人工智能全生命周期系统梳理人工智能通用隐私风险和生成式人工智能隐私风险。在此基础上,总结了国内外人工智能隐私保护法规政策标准化现状。然后分析了人工智能隐私保护技术和平台,包括管控技术、数据加密技术、攻击防御技术、隐私保护机器学习平台和人工智能安全检测平台等。最后以技术发展和隐私保护并重为原则,研究提出了多维度、负责任的人工智能隐私保护实施建议,让下一代人工智能用的放心。