人工智能(AI)现已融入军事功能与能力体系,包括自主武器、威胁探测及决策支持工具,并已成为多国安全条令组成部分。尽管其作用日益突出,人工智能系统在军事领域使用的法律影响主要从战时法(jus in bello)视角进行研究,即关注这些系统在武装冲突期间的使用情形,而其对启动使用武力决策的影响迄今未受到国际法学界的充分关注,这引发了紧迫的诉诸战争权(jus ad bellum)问题。本文旨在填补此研究空白。

联合国大会曾重申“包括《联合国宪章》在内的国际法……适用于人工智能整个生命周期各阶段涉及其管辖范围的事项,含军事领域由人工智能赋能的系统”[1]。国际法院在“核武器咨询意见”中也认定,《联合国宪章》中关于使用武力的条款(包括第51条)“未特指具体武器,其适用于任何武力使用,不论采用何种武器”[2]。故无疑现行国际法(含诉诸战争权规则)适用于人工智能在军事领域的使用。

问题在于,在当前法律框架以人类判断为前提的情况下,人工智能究竟构成适用这些规则的资产还是挑战:引入人工智能从根本上动摇了关于行为主体、责任归属及法律评估概念基础的既定认知。本文从国家自卫权视角探讨此问题,重点研究人工智能能否成为确保自卫反应必要性与相称性的有效工具。通过剖析该问题,本文旨在为国家制定人工智能军事应用立场提供参考,协助各国负责任地推进人工智能融合,并为这一仍在演变中的领域塑造新兴规范。

本文提出两项核心论点:其一,尽管人工智能或有助识别迫近的武装攻击威胁,但必要性与相称性等抽象且高度依赖具体情境的概念难以转化为计算机代码;其二,即便假定技术可行,利用人工智能判定自卫行动的必要性与相称性虽具优势,却将引发同等严峻的挑战,故需审慎推进。为论证这些观点,本文结构如下:第二部分回顾人工智能如何介入军事政治决策;第三部分梳理《联合国宪章》与习惯国际法下的自卫权法律框架;第四、五部分分别探讨人工智能系统在判定自卫行动必要性与相称性时带来的机遇与挑战。

在展开前需作两点说明:首先,必要性与相称性原则同样适用于其他(已获认可或存争议的)动武法律依据,即《联合国宪章》第七章规定的安理会强制行动及人道主义干预[3],但本文仅限讨论其在自卫法语境下的应用;其次,虽有观点认为自卫权可正当化非武力措施[4],本文仅聚焦武装反应情形。

目录

I. 引言
II. 人工智能系统与军事决策
III. 国家自卫的固有权利及对武装攻击做出反应的必要性与相称性
A. 必要性测试:受害国在自卫中除使用武力外,是否还有其他合理可用的替代方案?
B. 相称性测试:鉴于防御武装攻击之目的,自卫反应的方式与效果是否具有正当性?
IV. 人工智能作为确保自卫反应必要性与相称性的助益
V. 使用人工智能判定自卫反应必要性与相称性的风险与挑战
VI. 结论

成为VIP会员查看完整内容
1

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
微信扫码咨询专知VIP会员