近年来,人工智能产品已经在智慧医疗、智慧交通、智慧司法、智能教育等方面取得了较大的突破。然而,人工智能产品性能和设计特点都不一样,产品质量参差不齐,人工智能产品在推动人类社会进步的同时,也可能引发一系列风险。这些风险中包括了人工智能产品开发过程中涉及的技术风险、应用风险、管理风险,不仅对使用者安全、自然环境造成的物理影响,也对使用者宗教信仰、文化、情感造成的精神影响。此外,开发过程涉及的人员机制和组织流程也会对人工智能产品落地具有直接影响。而良好的风险评估有助于降低产品失败的几率、避免可能的资金与时间损失、相对提高企业本身的附加价值,更有利于人工智能产品的广泛应用,并提高社会及公众对人工智能产品使用的信心。因此,确保人工智能技术平稳安全落地,不是被动地在发生危险后紧急处理相关问题,而是提前预防人工智能产品在不同应用场景中存在的潜在风险,防止技术手段在实际运用中可能出现的故障、失效、被入侵等隐患,有必要在人工智能领域建立面向人工智能产品的风险评估相关的标准,来引导人工智能产品的开发和应用全生命周期涉及的各类组织开展相关工作,建立人工智能产品设计者、制造者、使用者以及其他利益相关者合作共赢的生态体系。 本文件提出了人工智能风险管理能力评估参考模型,规定了人工智能风险管理能力框架、能力等级和评估方法。本文件适用于对组织级人工智能利益相关方所提供的人工智能风险管理能力的评估。
随着技术的快速发展和广泛应用,人工智能系统面临的数据风险、算法风险及模型风险日益凸显,可能引发个人隐私泄露、经济安全受损等多重问题。同时,技术滥用、伦理道德争议等潜在风险也不容忽视。因此,加强人工智能风险管理,建立健全的风险防控机制,能够提升人工智能技术的可靠性和安全性,还能为技术的可持续发展奠定坚实基础,对于保障数据安全、维护社会稳定、促进经济健康发展具有重要意义。 本文件适用于对组织人工智能风险管理能力的评估。其中,组织是指人工智能系统在全生命周期、全产业链中利益相关的公司、集团公司、企事业单位、行业协会、权力机构或研究机构等。“人工智能风险管理”是一个广泛的概念,它涵盖了与人工智能相关的所有风险的管理,包括但不限于技术风险(如算法偏差、数据泄露等)、伦理风险(如算法歧视、意识形态侵蚀等)、应用风险(如系统被黑客攻击、算法被用于欺骗等)和法律风险(如算法合规、知识侵权等)。本文件主要关注组织对人工智能系统本身的风险管理能力,这些风险可能涉及系统的稳定性、安全性、性能以及与其他系统的兼容性等方面。人工智能系统的风险管理是为了确保系统能够按照预期运行,并避免由于系统故障或漏洞而导致的潜在问题。 需要注意的是,在谈及人工智能风险管理能力评估时,涉及到技术风险、安全风险等概念,需要结合人工智能系统的风险管理进行讨论。这些组织级风险管理能力是人工智能风险管理在具体人工智能系统中的具体实现。