火药的发明通过矿山开发与社会基础设施建设助力民生改善,同时也从根本上改变了战争形态。如今在21世纪,人工智能(AI)被称为"第三次战争革命",其不仅因赋予社会新便利的潜力受关注,更因可能彻底变革战争本身而引发热议。事实上,在艾伦·图灵1950年代提出AI基础概念约70年后,AI驱动的自主无人系统与机器人主导新战场的可能性正逐渐成为现实。
美国与北约正加速适应新兴颠覆性技术(EDTs)以保持军事优势,因为他们预判强力AI与自主武器将主导未来战争。这源于高速网络与大数据等信息通信技术(ICTs)的最新发展(多数可转军事用途),以及所谓军事信息化进程的快速推进。例如,具备自主导航能力的无人机技术、自动驾驶必需的图像识别技术、利用先进压缩技术的大数据处理技术已在民用领域实用化,同时也面临军事转用(spin-on)。
基于此背景,本文拟梳理AI军事化应用的期待与隐忧,并指出国家应采取的应对之道。
AI的军事化应用使得基于民用技术无人机与侦察卫星获取的精确目标信息实现快速决策成为可能,并通过高精度导弹等制导武器构建创新性攻击循环以摧毁目标。典型案例是AI驱动的攻击无人机与目标锁定系统已在乌克兰与以色列的实际作战空间投入使用。AI运用还可通过对海量信息数据的快速精准分析,以及以可视化形式向指挥官与士兵提供分析结果,大幅提升指挥控制能力。为满足此类AI武装武器系统的增长需求,众多高科技企业与防务产业正持续竞逐开发。
当前,生成式AI的快速演进与普及(如美国ChatGPT)因其在安防与军事领域的积极应用而备受关注。特别是结合边缘计算[的多模态生成式AI(持续收集并利用文本、图像、语音等海量数据),将实现快速信息处理与战场态势分析,有助于提升作战效能与士兵生存率。
另一方面,利用敌方生成式AI散播虚假信息正引发社会动荡与治安恶化。在战场认知战场景中,伴随网络攻击,敌方信息操控可能导致指挥所与部队的混乱与恐慌,进而严重影响作战行动。潜在应对措施包括引入预测性分析及AI生成虚假信息的早期侦测技术。
由此可见,AI技术正以攻防兼备之姿在军事领域发挥日益重要作用。随着人机协作持续深化,指挥官与士兵得以将有限时间与资源集中于创造性、生产性任务,由此有望夺取战场军事优势。
尽管AI军事应用快速推进,诸多问题仍未解决,具体包括透明度与问责机制缺失、误判风险及伦理议题。
一般而言,AI决策过程不透明且问责机制模糊,这促使亟需发展具备问责机制的"负责任AI"(Responsible AI),以确保人类持续监控与干预。这意味着随着AI军事应用普及,西方国家应推动军事领域采用负责任AI,强化对恶意使用的识别与防御能力。
此外,若相关AI算法或训练数据存在偏差,可能导致错误判断与选择,引发AI军事误用。此类风险或导致意外军事升级,包括对民用设施误炸、虚假信息扰乱及战事延长等。
同时,AI军事化伴随的伦理问题已引发关注。目前,《特定常规武器公约》(CCW)政府专家组(GGE)正致力于规范致命性自主武器系统(LAWS)——此类系统可在无人为判断或干预下自动实施攻击——使其应用符合人道主义与国际法。
然而,该国际框架的讨论甚至无法就LAWS定义达成共识,部分原因在于LAWS并非真实存在的装备,预计联合国层面谈判将陷入重大僵局。另一方面,应对AI技术快速演进刻不容缓,国际竞争正持续加速。为突破困局,2023年"负责任军事领域人工智能(REAIM)峰会"召开,旨在促进具有共同问题意识的相关国家合作治理AI军事应用。尽管AI军事化国际讨论势头令人欣慰,但AI实际开发、部署与运作层面是否仍存问题?
当前,各国正将AI作为经济发展关键要素投入国家力量进行开发与应用。然而,若各国采取独立发展路径且忽视保障AI系统兼容性,可能导致安全领域出现互操作性缺失的系统。即使在理应实施联合军事行动的盟国之间,也存在担忧——各国社会实施先进技术的规模与速度差异,或导致成员国在联合AI行动中出现能力分化与极化。
为使盟国与伙伴国未来能如既往般高效实施联合作战,必须建立军事AI联合应用的通用框架,具体而言需确保军事领域AI互操作性。事实上,美国人工智能国家安全委员会(NSCAI)在警示先进技术可能分化欧洲与印太地区盟友的同时,强调需推进协调性AI军事技术的早期采用。此背景下需注意,"五眼联盟"情报同盟正围绕AI、网络、半导体等先进技术(含民用领域)展开协调,以保障AI军事应用的互操作性。
参考来源:SPF