随着时间推移,人工智能(AI)与自主技术改变战争形态的承诺正逐步成为现实。正如乌克兰使用基础自主技术引导无人机,以及以色列据报利用AI执行加沙地带目标定位所展现的,这项技术将持续扩展未来冲突的节奏、规模与范围。在美国及其盟友与合作伙伴努力寻求负责任开发与部署这些系统之际,建立严格方法以确保其符合技术最佳实践、美军政策及未来作战理念的重要性空前提升。
美国防部(DoD)在战争中部署尖端技术方面拥有重要地位,但AI与自主系统仍带来独特挑战——从决策选择过程的不可解释性,到对开发所用训练数据的敏感性。当美国及其对手正以惊人速度推进该技术发展时,联合部队需建立基于技术原理的动态框架,以延续国防部安全有效部署技术的传统。
本研究成果适用于AI与自主系统全生命周期,可分为两大类别:一是涉及系统设计与工程技术要素的"研究与系统开发";二是关乎虚拟与实况测试实践及政策要素的"测试与评估(T&E)"。创造安全有效的AI与自主系统并非采办或作战单一部门的职责,而是贯穿系统全生命周期的系统工程。因此,这些发现与建议广泛适用于从工程设计团队到测试操作人员等多个关联领域。
国防部门应确立AI与自主系统的共性特征清单,这些特征需新型保障与维护措施。此举可使采办部门在开发初期(纠错成本最低阶段)识别相关项目并激活额外资源与监管。相较于依赖宽泛定义或供应商自报告,通过特征识别能更精准把握AI与自主系统特有的开发、测试与维护问题,同时避免将成熟的传统AI应用纳入过度宽泛的监管范畴。
采办部门应将系统设计技术与工程实践的信息共享要求纳入合同条款。这种强制性信息透明机制需明确系统组件是否涉及新型保障或维护需求的AI技术,从而规避用户或测试人员可能忽视的"隐藏式AI"系统。
各军种与采办部门应支持在项目早期将操作人员嵌入开发团队。鉴于系统开发后期设计变更成本高昂的共识,这种早期介入可在系统交付终端用户前发现潜在问题,从而降低成本并提升效率。
系统开发商与项目办公室应提前强调操作人员对可解释性的需求。虽然机器学习(ML)系统训练获得的新型战术可能提升性能,但若未兼顾测试人员与操作人员的关切,将阻碍技术后续应用。
负责制定与实施"负责任人工智能(RAI)"政策的部门,应与项目办公室及工程团队合作制定明确的合规测试指标指南。此项工作重点在于将"公平性"等抽象原则转化为可评估的性能参数。虽然具体程序需因应系统类型及所用AI/ML技术调整,但分享测试最佳实践案例可积累类似有人战机等传统系统的机构知识。
国防部门通过采办与科研工程部门,应为测试评估机构及AI系统承包商提供通用验证建模与仿真工具,避免重复开发临时工具。此类资源共享可涵盖环境模型、友军或对抗威胁模型。
项目办公室应与测试及操作人员建立持续对话机制,围绕系统性能关键指标进行迭代优化,确保其既符合底层工程流程,又能适应任务概念的演进。这种指标迭代机制符合AI/ML系统开发的工业最佳实践,需认识到模块与系统的技术指标可能与实战表现非直接相关。
国防部门测试评估体系应扩展测试安全政策,考量AI与自主系统的独特风险特征以提高测试效率。虽然大型AI与自主系统故障仍可能造成经济与作战风险(特别是涉及无人与机器人平台时),但其对人员生命的威胁程度与传统载人系统存在本质差异。