近期冲突中自主武器技术的兴起,彰显人工智能日益加剧的军事化趋势。基于人工智能的目标锁定系统和自主武器系统等新技术的迅猛发展,给国际社会带来重大挑战。一方面,人工智能军事化存在潜在威胁;另一方面,算法决策与法律责任引发伦理困境。尽管过去十年间《特定常规武器公约》框架下的监管机制建设持续推进,少数抵制国家仍阻碍着进展进程。然而近期区域与国际会议表明,支持采用"双轨路径"缔结国际条约的共识正日益增强——该路径旨在全面禁止完全自主武器,同时规范武器系统中的自主功能。
在近期武装冲突中,新一代武器系统引发国际社会高度关注。这些系统的核心特征在于作战行动中不断提升的自主运作能力。借助传感器技术与强大算法的进步,敌对区域自主导航、监视侦察、情报收集及目标锁定辅助等功能实现显著升级。游荡弹药(俗称自杀式或神风无人机)已成为此类武器系统最显著的例证,相继部署于纳戈尔诺-卡拉巴赫、利比亚及乌克兰战场。其他代表性系统包括无人地面载具、自主舰艇,以及多国正在研发的新一代超大型潜艇。随着这些系统在战争舞台的加速部署,杀伤决策自动化程度提升与人类控制权逐步丧失的忧虑正被证实,尤其在"福音"(Gospel)和"薰衣草"(Lavender)等人工智能辅助瞄准系统应用中更为凸显。2024年维也纳自主武器系统会议的主题标语"人类处于十字路口",精准映射了当前局势。过去数年人工智能应用的快速进化,正逐步取代军事领域各环节的人类参与,这种趋势在生死决策场景中尤为令人忧心。本文旨在探究人工智能军事应用对国际安全的深度影响,同时审视建立国际公认法律框架以规范人工智能与自主武器系统关联的可行性。
通过区分有形部分(硬件)与无形部分(算法),可清晰辨识军事装备自主化持续发展的多重优势。这种区分使我们能从功能视角解析人工智能的军事应用。在硬件层面,尖端传感器技术在恶劣环境与敌后区域的性能远超人类能力,尤其在情报监视侦察(ISR)及情报监视目标获取与侦察(ISTAR)任务中。自主武器系统不受身体或精神疲劳、睡眠不足、压力及生理需求等因素影响,可实现超长时部署——这对可潜航数周、隐蔽性远超载人潜艇的无人潜艇至关重要。军用机器人(如无人地面载具)能在城市战场或生化核污染区等高危环境作业;无人机可在士兵进入前完成战场勘察。美国"盾牌AI"(Shield AI)与"尼姆巴斯实验室"(NIMBUS Lab)等集群技术制造商正致力于该领域研发。在边境管控中,韩国SGR-A1哨兵机器人的部署,大幅降低了朝韩非军事区监控所需的人力资源需求。此外,凭借更高精度与更低人为失误率,自主武器系统有望降低平民伤亡风险。人工智能在自主载具中的深度集成,使其环境适应性、自主决策力及动态响应能力显著提升,甚至可实现实时杀伤判定。当人工智能融入决策系统,可实质性减少人力需求——诸如"福音"或"薰衣草"等瞄准系统中,人工智能基于传感器输入生成目标清单;在"算法战跨职能小组"(即"梅文计划")中,人工智能可解析无人机监视情报。