我们认识到,一套清晰、可执行的AI原则构成了符合道德和负责任的AI发展的基石。这些原则不仅对于建立公众信任和确保组织问责至关重要,而且也有助于促进惠及公民、企业和政府的包容性创新。 随着全球监管框架的演变,例如2024年通过的欧盟人工智能法案,基于欧洲委员会的可信赖人工智能伦理指南,基于原则的治理已成为人工智能监管的基础方法。阿联酋通过其人工智能2031战略以及发布于2024年7月旨在发展和使用人工智能的阿联酋人工智能宪章,展现了区域和全球领导力,该宪章阐述了十二项关键原则,以确保人工智能安全、公平和透明地部署。 这份白皮书详细解读了阿联酋人工智能宪章的12项原则,针对人工智能全生命周期的实施提供了可操作的建议,并对照KPMG可信人工智能框架进行映射,为人工智能治理、风险管理以及监管合规提供了实用见解,同时为建设与阿联酋国家优先事项相一致、具有韧性和以人为本的人工智能系统提供了蓝图。 阿联酋宪章特别强调人类监督、包容性、安全性和法律合规性——这些价值观与经合组织、联合国教科文组织以及欧盟等全球人工智能伦理标准相契合。随着人工智能监管日益严格,主动遵循这些原则的组织将更有能力负责任地引领发展,降低风险,并充分释放人工智能创新的全部潜力。 要超越美好的愿望,组织必须将这些原则嵌入到运营现实中。这意味着要演变现有的治理模式,以支持人工智能的独特需求——例如数据来源追踪、模型问责制、可解释性、偏见审查和人工监督。治理框架必须从静态政策转变为与快速发展的AI生命周期保持一致的动态控制机制。