国际国防科技巨头展示最新装备,抨击传统军事创新与采办流程的迟缓滞后。他们描绘未来战争图景:对手凭借敏捷性、技术素养与自主系统武装,暗示唯有尖端技术方能制胜。其解决方案恰与所售产品高度契合,这并不令人意外。政策制定者(常缺乏AI与新兴技术认知)、高级军官及国防产业巨头被此类紧迫清晰的论调吸引,自信宣扬:为应对"杀手机器人集群"与"AI赋能对手",必须即刻投资这些高科技方案。
然而,防务科技企业(如Palantir的Gotham、Avalor的Nexus、Helsing的Altra等系统)标榜的能力与实际复杂作战环境可实现效果间存在显著鸿沟。以军事平台任务规划的学术研究为例,常遭遇关乎"人机交互优化"的复杂数学挑战——需在作战现实性、实用性与责任性维度取得平衡。应对这些挑战常需创新方法提升系统智能与自适应性。
贝叶斯优化便是此类方法代表:这种数学求解策略通过试错机制优化复杂系统。其原理可简述为:基于用户反馈调整系统→实施行动→评估表现→优化后续决策。该策略使系统能在信息有限或不确定时逐步提升决策质量。该方法常依赖高斯过程——基于现有数据对用户偏好或系统行为进行概率推演的统计技术。
但此类模型存在解释困难且依赖特定假设。核心假设是数据关系需具"平滑性":即输入变量微小变化仅引发输出的可预测渐变。换言之,系统预设世界遵循连续渐变规律。这种平滑性假设在军事行动等复杂动态现实环境中问题凸显——因战场变化可能突变、关系呈非线性、数据含噪且残缺。要使技术实用化,仅靠智能算法远远不够,需构建能处理不确定性、快速自适应、兼容残缺/含噪数据,同时保持对人类用户透明可解释的模型。开发此类系统需深度技术创新、严格测试与大量迭代。
困境由此产生:具备开发能力的企业常面临两难抉择——要么放弃透明可解释性改造,要么实施改造但将方法作为专利黑盒保护(多因惧怕竞争优势流失)。商业视角虽可理解,却给防务机构带来严峻挑战:军方需清晰理解系统底层逻辑,以确保AI应用安全、合伦理且契合战略目标。
产业界虽扮演关键角色,但其追求速度、可扩展性及市场垄断的动机,未必符合公共利益。政府应秉持审慎透明原则,优先确保负责任AI部署而非快速铺开。公私部门合作至关重要,但须以民主价值、问责制及公共安全伦理需求为基石,而非单纯商业逻辑。可行路径或是建立混合机制:专利系统对普通市场保持封闭,但在严格契约保障下向可信政府伙伴开放审计权限。此非全新理念,但现代AI系统的黑盒/灰盒特性正使理解验证行为日益困难。即使在目标识别等相对受限领域,可解释性仍高度敏感于模型架构、训练数据及部署环境,并在数据偏移或领域适配时显著退化。
在对抗环境下无人机集群需探索环境并动态分配任务,其博弈论挑战尚无最优解。联合军方、产业界及研究团队积极应对此类挑战。由此可见,开发、验证、维护及部署鲁棒且作战可行的AI系统,远比当前营销叙事更为艰巨。这要求持续技术专长、严格测试与长效监督。
随着军队日益依赖产业界AI能力,政府不仅需防范战略锁定风险,更紧迫的是警惕预期膨胀与审查不足——二者可导致战术战略双重失败。AI绝非制胜的"交钥匙"方案,而是需战略耐心、机构专长、严密监督及深度技术理解的复杂演进能力。将北约扩张的防务预算投入现成AI方案虽具诱惑,过度依赖却可能成为战略负资产。
这并非否定军民合作价值。相反,鉴于当前规模化挑战及AI固有的军民两用性,有效军事AI发展需产业界与民用学术界的持续参与。但参与此类生态绝非简单采购现成产品。
真正协作要求军队培育贯穿组织层级的内部专长(AI素养),提升"人员战备水平"。这在评估先进AI平台时尤为重要——政府官员需具备批判性评估能力、局限及负责任应用场景的能力。同时,多数产业与学术伙伴(非全部)缺乏深度军事作战洞察,其"防务素养"同样需强化。就此而言,推进军事AI不仅是构建更优系统,更是培育更佳生态。
产业界与学术界或可加速AI技术进步,但军队拥有关于作战环境现实与需求的不可替代领域专长。此专长不仅关乎评估AI在复杂模糊作战条件下的表现,更涉及判定其应用是否符合负责任合法部署原则。
以自主无人机集群军事情报行动为例:在资源稀缺环境实现自主避障与导航的技术固然关键,但仅是拼图一角。更需深究:数据偏移条件下目标识别模型的实际性能如何?特定作战法律背景下,终端用户(及指挥官)所需且可理解的可解释性层级与类型是什么?在续航受限及对抗性反制措施存在时,异构集群的有效搜索策略如何构建?
这些绝非纯技术问题,而是需深厚军事专长的作战命题。该专长不仅支撑应用研究,更是精准提出研究问题的前提。此过程常揭示AI实际水平与产业界营销愿景间的断层——企业惯于兜售创意、原型及概念,而非经全面集成验证的战备方案。虽非本质错误,但现成创意无法替代基于任务需求的知情开发。军队切勿将这些产品等同于交钥匙能力。迄今,此类完备方案尚未存在。
为迈向目标,军队需超越单纯采购:应构建赋能外部协作的专长基石。缺乏此内部能力,纵使最优的产学研合作亦难达实效。
首先,军队应投资构建植根作战现实的数据科学与AI内部知识体系。该工作需在包含产业界与民用学术界的活跃生态中推进。非主张完全自主,但警示过度依赖与轻率采购。
其次,基于当前AI学术前沿,防务机构应抵制因惧怕落后他国而加速部署的冲动。恐惧催生误判。军队既有责任亦有条件审慎推进——缺乏清晰认知、监督及问责机制的仓促AI应用,将危及任务效能与公众信任。
开发高效、鲁棒且负责任的军事AI需军队专家深度参与并耗费时间。这要求军队具备基础AI素养,产业学术界掌握防务常识。缺乏双重素养,责任与效能将被错误对立。实则负责任应用恰是有效运用的前提——长远看,不负责任的AI部署不仅悖离伦理,更将导致作战失效。
最终,AI的有效与负责任运用,皆依赖于对系统设计、开发及部署流程的清晰认知。利好消息是:投资军队AI素养与外部伙伴防务素养可双目标并进。此新域的真正主导权非源于仓促或炫技,而属于那些深谙其道而善驭之勇者。
参考来源:warontherocks