人工智能(AI)正影响着人类生活的方方面面。过去十年中,人工智能的使用急剧增加,包括面部识别软件、自动驾驶汽车、搜索引擎和翻译软件。人工智能在现代社会中的这些公认用途,也与人工智能在现代战争中的日益增多不谋而合。人工智能武器化的不断升级与冷战时期的核军备竞赛相似,核武器被自动化武器系统所取代。然而,国际社会、联合国和国际法一直在努力适应和规范自动化武器的使用,自动化武器正在迅速改变现代战争的格局。
2012 年,国际社会开始注意到人工智能及其对现代战争的影响,一系列文件概述了自动化武器系统的使用,呼吁全面禁止自动化武器。
开发和使用能在冲突中承担自主功能的武器正成为各国和科技公司关注的焦点。2017 年,由 126 位人工智能和机器人公司的首席执行官和创始人签署的 "未来生命研究所"(Future Life Institute)致联合国(UN)的一封公开信 "恳请 "各国防止自主武器系统(AWS)的军备竞赛。然而,目前还没有一个国际法律监管框架来解决围绕人工智能使用的这些问题,尤其是在冲突背景下。唯一存在的人工智能法律框架是由《公民权利和政治权利国际公约》第 26 条建立的,只将人工智能的使用与隐私权联系起来。
尽管英国国防部(MoD)和美国国防部(DoD)已制定了两个主要定义,但关于什么是自动武器系统的定义仍存在争议。2011 年,英国国防部将 AWS 定义为 "能够理解更高层次意图和方向的系统,即能够达到与人类相同的态势理解水平,并能够采取适当行动实现理想状态"。同样,美国国防部在 2023 年提出了一种不同的方法,并将 "预警系统 "定义为 "一旦启动,能够选择和攻击目标,而无需人类操作员的进一步干预"。2012 年人权观察-国际人权委员会报告为国际社会提出了类似的定义,将 AWS 定义为 "完全自主的武器,可以在没有人类干预的情况下选择和攻击目标"。北约联合空中力量能力中心(JAPCC)也将自动化的概念延伸至 "意识和自决"。自动化武器的例子包括以色列 "铁穹 "和德国 "MANTIS "等防御系统,以及瑞典 LEDS-150 等主动防护车。新的定义还需要包括在非冲突情况下使用的自动化武器,如韩国的超级 aEgis II,它在和平时期被用作南北韩边境的监视设备。
然而,真正的问题在于未来对 AWS 的定义。定义不仅必须包括尚未考虑在内的系统,如 "超级 aEgis II",还必须预见到未来可能出现的 AWS。特别是,国际社会必须商定一个能够涵盖人工智能人类认知输入算法的定义,这种算法具有类似人类的决策能力。
尽管有此需要,但国际社会尚未就 AWS 的法规达成一致。《联合国常规武器公约》(CCW)有一项特别修正议定书(1986 年),由政府专家组(GGE)负责管理,专家组每年举行一次会议,讨论《常规武器公约》议定书的执行情况和相关武器问题。最近一次政府专家小组会议于 2023 年 5 月举行,会议结束时,由于政府专家小组未就任何监管保障措施达成一致意见,特设工作组未取得任何实质性进展。他们的报告草案也未能推进法律框架。不过,该报告确实提出了以人类控制 AWS 的必要性为中心的禁令,以及以 AWS 开发为中心的法规。52 个国家发表了支持报告草案的联合声明,但他们也指出,该草案只是最低标准,并强调需要一个更加健全的法律框架。在 2023 年 5 月的会议上,政府专家小组决定在 2024 年 3 月和 8 月组织更长时间的讨论,探讨新出现的致命 AWS 技术。虽然政府专家小组最近的讨论可能会取得更有意义的进展,但规范致命性气雾剂开发和部署的法律框架尚未出现。
俄罗斯总统普京曾表示,在人工智能领域处于领先地位的国家 "将成为世界的统治者"。人工智能在现代战争中的进步将永远改变美国、中国和俄罗斯等大国以及私营科技行业之间的关系。中国大力投入旨在成为人工智能技术的世界领导者,而俄罗斯在2021年至2023年的支出为1.81亿美元,美国的支出为46亿美元。2019 年,《简氏》杂志称,未来十年,全球将购买超过 8 万架侦察无人机和近 2000 架攻击无人机。英国运营着携带导弹的无人机,并计划到 2024 年花费 4.15 亿英镑购买保护者无人机。沙特阿拉伯作为无人机市场的后起之秀也不容小觑,它在 2023 年的国防投资将达到 690 亿美元,占其国家预算的 23%。此外,沙特阿拉伯还计划设立一个 400 亿美元的基金,用于投资人工智能,这将使其成为世界上最大的人工智能投资者。
随着无人机和人工智能开发支出的快速增长,技术的进步最终可能会使无人机在冲突期间无需人类输入就能即时做出决定。这可能会消除冲突中的和平谈判,因为无人机的反应将纯粹是报复性暴力。从 1999 年科索沃战争期间北约使用无人机识别隐藏的塞尔维亚战略阵地,到 9 月 11 日恐怖袭击后美国立即使用无人机,无人机技术已经取得了进步。在一架 ISR 无人机成功找到奥萨马-本-拉登之后,美国军方越来越多地使用无人机并为其配备致命有效载荷,从 2010 年到 2020 年,仅在阿富汗就进行了 14,000 次无人机袭击。
美国、英国和以色列仍然是无人机的最大用户,而且它们的武库还在继续扩大。美国和英国使用武器化无人机已有十多年,其中包括 "捕食者 "和 "收割者",这两种无人机均由总部位于加利福尼亚的通用原子公司制造。据《无人机战争》报道,在2014年至2018年的四年叙利亚冲突中,英国在执行战略任务时使用了2400多次 "收割者 "无人机,相当于每天使用两架。五角大楼预计,到2035年,遥控飞机将占美国空军的70%。与此同时,以色列也在研发自己的武器化无人机,并在加沙部署了无人机,用于监视、运送爆炸物等。
此外,无人机技术正在迅速向世界各地的军队传播。现在,几乎所有北约成员国都有能力在冲突中使用无人机。在过去五年中,土耳其和巴基斯坦也都建立了无人机制造项目。甚至非国家行为者也在使用无人机。真主党曾使用伊朗制造的无人侦察机侵犯以色列领空,而哈马斯自 2023 年 10 月以来一直在使用无人机对付以色列。
人工智能在战争中的应用也在迅速蔓延。有报道称,乌克兰为其远程无人机配备了能自主识别地形和军事目标的人工智能,并利用它们成功地对俄罗斯炼油厂发动了袭击。以色列在加沙冲突中也使用了 "薰衣草 "人工智能系统,识别了 3.7 万个哈马斯目标。因此,目前以色列与哈马斯之间的冲突被称为第一场 "人工智能战争"。然而,目前还没有证据表明在冲突中使用过 AWS(一种没有大量人工控制的系统)。
随着人们对所谓 "杀手机器人 "出现的忧虑与日俱增,在战争中使用人工智能引发了越来越突出的伦理和法律问题。特别是,无人机可能无法区分战斗人员和平民。值得庆幸的是,许多人工智能技术仍处于开发阶段。杀手机器人 "的比喻指的是可以自主操作的无人驾驶飞机;然而,目前大多数人工智能只能在人类操作员的输入下,在狭窄的、预先确定的环境中发挥良好作用。
尽管如此,人工智能越来越多地融入无人机和其他亚博体育手机客户端,造成了在没有人类有效控制的情况下决定冲突的非常真实的危险。在冲突中使用暴力可能是由机器的本能决定的,而机器无法驾驭战争中模棱两可的道德问题,也无法做出合乎道德的决定。我们无法预测法律将如何跟上甚至阻止这种技术进步,但目前的法律框架肯定缺乏清晰性和前瞻性。
由算法和机器驱动的冲突无需人工干预,围绕这些冲突的伦理或道德问题能否得到解答尚不确定。自动无人机本身并不是武器,而是运送武器的平台,国际法并未对无人机的使用做出具体规定。虽然无人机的使用与所有武器一样受国际法原则的约束,即区分、相称和禁止任意攻击的规则,但由于缺乏任何具体的法律,监管难度极大。国际社会必须建立一个国际法律框架,确保人类始终保持对 AWS 的有效控制,确保系统不会在冲突中自主选择军事目标。
政府专家小组在 2023 年发布的最新报告中强调,必须制定法律措施,限制使用 "基于致命自主武器系统领域新兴技术的武器系统,这些系统一旦启动,就能够识别、选择、跟踪并对目标使用武力,而无需人类进一步干预"。作为战争武器领域前所未有的创新,AWS 需要一个新的国际法律框架,它必须足够强大和灵活,以跟上技术进步的飞速发展。因此,政府专家小组必须继续推动联合国通过新的国际法律框架,限制在现代战争中开发和使用 AWS。
克里斯蒂安-汉伯是伦敦格林威治大学法律与犯罪学学院国际法副教授。他在国际法领域发表了大量论文,主题包括人权、人工智能、隐私权、民粹主义、现代战争和国际关系。他还是上议院武器系统人工智能特设委员会(House of Lords Select Committee on Artificial Intelligence in Weapon Systems)的撰稿人。