近年来,人工智能(AI)在各领域的应用讨论呈爆发式增长,军事作战领域亦不例外。多军事强国日益增强的AI武器化趋势被概念化为新型军备竞赛——冷战时期的核能力升级正被自主武器系统(AWS)取代(Humble, 2024)。AI在国际社会的崛起可追溯至2012年:美国防部(DoD)发布AWS使用指令的同一年,人权观察组织与哈佛法学院联合报告呼吁国际法彻底禁止AWS。此后十余年,国际法与冲突AI领域进展甚微。当前尚无国际监管机构的法律框架界定AI伦理使用(尤在战争语境),各国及其军队实质上可自由发展并参与AWS军备竞赛。
需明确:AWS究竟是什么?当前如何部署?2023年美国防部将自主武器系统定义为"激活后无需人工操作员干预即可自主选择并攻击目标"(Department of Defense 2023)。典型案例包括以色列"铁穹"防空系统、德国"螳螂"防空炮、瑞典LEDS-150防空系统;韩国"超级鹰眼II"虽属AWS范畴,但仅用于和平时期监控(Humble 2024)。此类武器在俄乌战争中亦高频使用——无需人工干预即可识别打击目标的自主无人机首次亮相大规模冲突(Marr, 2024)。乌军除使用此类"杀手机器人"外,还部署"BAD One"犬形自主机器人:可侦测敌军部署、地雷,甚至向前线输送弹药;该装备还配有自主机枪系统。乌克兰更运用AI监控补给线、安置难民、追踪部队动向,并通过人脸识别技术追捕战争罪犯。
AI在战争中加剧应用引发严峻伦理与后勤问题:AI开发者参与冲突场景的意图与"无害技术"宣称存在根本矛盾。首要关切在于AWS的固有局限——系统易受数据投毒与规避攻击(Starck等, 2022),且多场景下已证明存在识别偏差。例如AI无法准确识别深肤色个体,当人脸识别软件用于战时目标锁定,可能导致致命误判(Stewart & Hinds, 2023)。更深层问题在于:是否应赋予机器自主杀戮权?在充满道德模糊性的战争决策中,移除人类干预将对战争形态产生何种颠覆?若自主无人机("杀手机器人")无法区分战斗人员与平民,灾难性后果几乎不可避免(Humble, 2024)。下文案例进一步揭示此伦理困境。
作为全球最早将无人机技术投入战争的国家(可追溯至1982年黎巴嫩战争),以色列始终处于AWS技术前沿(The Economist, 2023)。自2023年10月7日哈马斯袭击以色列目标后,以军对加沙的入侵行动持续激烈。在加沙密集城区环境中,无人机通过构建建筑与地形3D模型导航定位目标的战术已被充分记录(The Economist, 2023);但以军目标判定机制长期存疑。据以情报部门内部消息,以色列使用名为"薰衣草"(Lavender)的AI系统识别确认目标——超37,000名被认定与哈马斯有关联的个体(McKernan & Davies, 2024)。"薰衣草"并非以军在加沙使用的唯一AI工具:人权观察组织披露其当前使用四类AI系统,包括追踪手机信号监控巴勒斯坦人撤离北加沙的匿名系统、生成建筑打击清单的"福音"(The Gospel)系统、判定个体军事目标的"薰衣草"系统,以及定位目标实时位置的"爸爸在哪"(Where’s Daddy)系统(Human Rights Watch 2024)。
尽管这些系统均遭国际人权组织质疑(Human Rights Watch 2024; Davies等, 2023)——尤以手机三角定位精度是否支撑军事决策("福音"系统)为焦点——"薰衣草"系统近月引发最强烈伦理争议。以色列国防军(IDF)仅笼统承认该"跨情报源交叉验证数据库"的存在(Human Rights Watch, 2024)。该系统通过机器学习为加沙居民赋分评估其关联哈马斯等武装组织的概率,其算法依赖"生活模式分析"(pattern of life analysis)——利用监控数据识别已知武装分子特征并在未知个体中匹配同类特征。鉴于AI导向的生活模式分析存在固有缺陷及未标记数据问题,"薰衣草"系统使平民面临巨大风险(McKernan & Davies 2024; Human Rights Watch 2024)。
如同生物识别追踪与预测性警务系统预设人群有罪逻辑,对加沙平民的持续监控实质预设其武装分子身份。此举不仅违反国际人道法,更催生严重误判风险——导致数千名非武装平民被锁定杀害(Human Rights Watch 2024)。以色列法律对恐怖主义的宽泛定义(涵盖巴勒斯坦人权组织、NGO等非暴力机构)进一步削弱"薰衣草"系统可信度。人权观察组织指出:"若同类宽泛定义用于训练'薰衣草'等影响打击决策的机器学习工具,其输出将复制相同偏见,加剧平民遭袭风险"(2024)。
以军在加沙及约旦河西岸(持续遭受以方占领、非法定居点扩张及巴勒斯坦村庄拆除)广泛使用AI与AWS锁定目标的行为(Human Rights Watch, 2024),引发战争场景AI应用的深刻伦理质疑——本案中肇事者却享有完全豁免权。IDF在加沙使用AWS不仅是机器学习系统误伤平民的技术问题,据《卫报》消息源透露:"我们不仅限于在军事建筑或行动中消灭(哈马斯)人员...轰炸家庭居所更为简便。该系统专为在此类场景定位目标而设计"(McKernan & Davies, 2024)。证据表明AI在加沙不仅存在误伤风险,其系统设计本质是在目标最脆弱时(尤当非目标平民高概率伤亡时)实施清除。自2023年10月7日以来加沙死亡人数超50,000(加沙卫生部数据引述自半岛电视台, 2025),AI持续锁定目标(常由乌克兰同款自主无人机实施打击)的案例,彻底背离AI"无害"初衷,成为技术反噬的扭曲范本。
核心问题
如上所述背景与案例表明,战争AI/AWS与国际人道法的关系错综复杂。尽管无人机等AI制导系统原则上受"区分原则、比例原则及禁止无差别攻击"等战争法约束,但当前缺乏针对AI/AWS使用的专项国际法规。随着此类武器系统在全球多战场部署,法学家指出:缺乏AI战时伦理使用框架将严重挑战国际人道法保护机制,进而危及武装冲突中的平民生命。
讨论议题
讨论议题
讨论议题