本文旨在以"启发思考"方式汇集、呈现与阐释防务领域人工智能可信赖性相关要素,反映来自防务工业界、学术界与国防部的AI专家及利益相关方共识。此项工作在欧洲防务局(EDA)《防务领域人工智能行动计划》框架下展开,致力于探讨可信AI及验证、确认与认证需求分析等议题。本文涵盖与分析的议题将提供当前全球AI可信赖性法规、标准与框架现状的全面认知,并建议后续行动以协助欧盟成员国与防务工业界更好地规划、开发符合预期目标的未来AI系统。目标读者为欧盟成员国(尤其是国防部),其将评估本白皮书建议并作为未来AI相关研究的参考基准;读者范围亦扩展至防务工业界,强调考虑所有法规、标准与方法论的军事AI系统开发关键要素,助力其规划设计可信AI服务与应用。
报告结构基于以下已识别任务:
• 人工智能定义与分类体系
• 防务领域AI利益相关方识别
• AI用例与场景的法律视角
• 标准与法规
• 测试评估、验证确认标准/工具/方法论
• 防务领域人因要素
• AI伦理考量
• 防务领域AI影响分析
• AI可信赖性军事用例与场景
• 建议与后续步骤
本白皮书是未来AI相关研究活动与项目提案的起点与基础参考源,旨在为业界提供规划、开发、获取、测试与应用防务AI系统的充分知识与方法。本文亦受近期通过的欧盟《人工智能法案》[1]影响——该法规预计将对欧盟未来AI技术设计与应用产生深远影响。根据《人工智能法案》最新进展[1],欧盟委员会已发布标准化要求,责成欧洲标准化委员会(CEN)与欧洲电工标准化委员会(CENELEC)于2025年4月30日前制定欧洲标准,旨在确保欧盟市场AI系统安全性、基本权利保障与创新激励。无论如何,本文建议虽不构成成员国承诺或义务,但预计将部分融入拟议的《人工智能行动计划》更新版(v2.0),更详尽处理本文议题及行动计划制定过程中新增的共识性议题。
需特别说明,本白皮书主要成果由"防务AI可信赖性工作组"志愿完成,该工作组由欧洲工业界、学术界多学科专家及部分欧盟成员国国防部代表组成。