人工智能(AI)的进步一直在激发关于应用基于AI的技术来提高武器系统(包括空中无人机)的自主水平的辩论。2021年,一份联合国报告显示,一架无人机以完全自主的模式--没有人类的监督--用于攻击利比亚的目标。具有自主功能的无人机已经扩散了一段时间,并在一些武装冲突中被使用。军方对开发和获取游荡弹药、蜂群技术和更大型号的自主无人机越来越感兴趣。在这一章中,我们探讨了这些领域的每一个发展。我们还考虑了无人机自主性的感知优势以及与具有自主功能的武器系统相关的实践挑战,特别是在人机互动和武装冲突中人类对武力使用的控制质量方面。
关键词:自主性、人工智能、游荡弹药、蜂群、自主武器系统
2022年3月,美国(US)透露,100架Switchblade无人机将成为其对乌克兰最新军事捐赠的一部分(Macias, 2022; McLeary and Ward, 2022)。这一宣布引起了媒体的极大关注,因为据说Switchblades和许多其他类型的闲置弹药一样,在瞄准时具有自主功能。游荡弹药代表了无人机历史上最新的系统,其瞄准功能中的自主性越来越强。自主性可以被广泛地定义为 "在没有人类输入的情况下执行任务的能力"(Scharre和Horowitz,2015年,第5页)。它已被整合为支持无人机的许多功能,如导航和飞行。例如,美国制造和使用的平台,如全球鹰,能够自主地执行起飞和降落,以及遵循预先编程的飞行路径(Enemark, 2014, p.101)。
然而,考虑到人工智能(AI)的技术进步,越来越多的自主权被纳入到目标选择中,这引起了关于人类在多大程度上仍然直接、直接控制武力使用的争论和基本问题。因此,本章特别关注具有自主功能的无人机的目标定位。它分四步对自主无人机进行了概述:首先,它探讨了游荡弹药作为具有显著自主特征的无人机的一种类型,并看到了相当大的扩散。第二,它研究了蜂群能力的进展,第三,大型自主无人机的发展。第四,文章最后回顾了与自主无人机扩散有关的驱动因素以及这一发展所带来的问题。
将游荡弹药视为无机组人员飞行器(UAV)和导弹之间的混合体是有益的(Gettinger and Holland Michel, 2017, p. 1; Trevithick, 2021)。像导弹一样,游荡弹药 "参与视线以外的地面目标",并被设计为在完成任务后可被消耗,这意味着它们在攻击目标时通常会自毁(Gettinger and Holland Michel, 2017, p. 1)。与导弹不同的是,许多型号的游荡弹药并不向特定的目标发射,而是在战场上游荡,在一个潜在的广泛的地理区域内搜索它们通过传感器和特征/物体识别而识别的特定类别的目标(Atherton, 2022)。一些被称为 "人在回路 "系统的游荡弹药,如果它们无法找到目标,可以被收回并重新使用。这意味着它们的人类操作者必须目视核实目标并授权攻击,而且通常还可以在攻击已经开始的时候中止攻击。同时,关于游荡弹药的宣传材料经常宣传这种系统能够在没有GPS的环境中运行,这表明人类操作员可能没有可能进行目视核查。
游荡弹药的发展始于20世纪80年代,有了旨在攻击雷达装置和移动防空系统或发射器的大型平台(Gettinger and Holland Michel, 2017, p. 1; Gao, 2019)。这种类型的一个主要例子是哈比,由以色列公司IAI制造,经常被称为第一种游荡弹药。根据红十字国际委员会(ICRC)的定义,哈比也经常被讨论为符合完全自主武器系统的定义要求(Horowitz, 2016, p. 2; Scharre, 2016, p. 19; Congressional Research Service, 2021, p. 1)。IAI自己将其描述为 "适用于所有天气的自主武器 "和"'发射和遗忘'自主武器"(IAI,无日期)。
从2015年开始,我们看到越来越多不同大小的游荡弹药。其中一些是更小、更轻、更便携的系统,设计用于步兵,以攻击对手的士兵,作为常规迫击炮的替代。与早期以色列制造业的主导地位相比,现在有一系列广泛的公司在俄罗斯、台湾、土耳其和美国等国生产这些平台。土耳其STM公司生产的Kargu-2是一种四轴飞行器,利用自身的旋转动力起飞和降落。据报道,它可以配备重达1.3公斤的温压弹、杀伤人员和穿甲弹头,并被宣传为设计用于非对称战争或反恐行动(STM,2021)。2020年6月,STM公司的一份新闻稿称,卡尔古-2的发展 "从实地使用中受益匪浅",据说土耳其军方已于2019年在土耳其和叙利亚边境部署了该武器(STM,2020)。2021年,在联合国专家小组撰写的关于利比亚内战的报告公布后,卡尔古-2在国际上引起了关注(联合国安全理事会,2021年)。这份报告指称,在2020年3月,卡尔古-2和 "其他游荡弹药[......]被编程为攻击目标,不需要操作者和弹药之间的数据连接:实际上,这是一种真正的'发射、遗忘和寻找'能力"(联合国安理会,2021年,第17页)。
在评估游荡弹药在多大程度上可以自主操作目标方面,存在着一个重要的灰色地带。一方面,今天扩散的许多型号的游荡弹药具有识别、跟踪和攻击目标的技术功能,而不需要人为干预。这意味着,它们依靠传感器、处理器和软件来做出目标决定。这种软件 "仍在开发中,错误和缺陷[......]可能导致打击没有击中预定目标"(Gettinger and Holland Michel, 2017, p.4)。另一方面,这些系统的制造商认为,它们是在手动模式下使用的,即在选择和攻击目标时有一个 "人在环"(见表1,关于控制环中人的不同参与程度)。然而,即使我们承认它们是在 "人在回路 "中操作的,人的控制的质量仍然可能受到不利的影响。在具体使用武力的决定中,人的控制需要有批判性地审查机器提示的能力(Bode和Watts,2021)。在战斗条件下,尚不清楚士兵是否有关键的决策空间和必要的情景意识来参与这种审查(Bode和Watts,即将出版)。
表1: 使用武力的决策中人的控制水平(根据Bode和Huelss,2022年,第163页;Sharkey,2016年)。
人在环内 | 该系统需要人类的输入。人类在发起攻击前会对目标进行斟酌,并从目标清单或系统建议的行动方案中进行选择。 |
人在环上 | 人类对系统进行监督和监管。系统选择计算的目标,但在攻击前需要人类的批准。例如,系统可以在攻击前给人类分配一个有时间限制的否决权。 |
人在环外 | 该系统选择目标并启动攻击,没有人参与或干预。 |
尽管有这样的不确定性,游荡弹药仍在不断扩散。自2010年代末以来,它们已被用于重大军事冲突,如伊拉克、利比亚、纳戈尔诺-卡拉巴赫、叙利亚和乌克兰的战争。关于在其中一些冲突中使用游荡弹药的政策论述,特别是纳戈尔诺-卡拉巴赫,颂扬其军事效力(Gressel, 2020;Shaikh and Rumbaugh, 2020)。此外,游荡弹药可以在各种领域使用,而不仅仅是在它们经常与之相关的步兵背景下(Rogers和Kunertova,2022)。例如,它们可以被安置在军舰或更大的无人机上。这些似乎是它们扩散的理想条件。同时,在日内瓦的《联合国特定常规武器公约》(CCW)中,关于可能管制自主武器系统的国际辩论仍然被定义上的争议和顽固的缔约国所困扰(Nadibaidze,2022)。使用具有自主功能的武器系统的做法,如游荡弹药,已经并将继续超过对国际法规的审议(Bode, 2021)。扩散的动力可能会导致进一步急于使用这些系统,而没有考虑到它们对战争行为的不利影响。因此,战争中游荡弹药的存在正在逐渐常规化。
除了表现出对游荡弹药的兴趣外,世界各地的军队还探索如何将技术进步应用于在蜂群中运作的武器系统之间的协调,无论是在空中、地面或水下,还是全部结合在一起。无人机蜂群是由几个单独的无机组人员的飞行器组成的,它们有一个共同的目标,并作为一个统一的实体运作。虽然它们不一定都是完全自主的,但蜂群中的无人机可以在没有人类直接干预的情况下相互交流,"以机器的速度对战场做出反应"(Scharre,2018)。蜂群的定义不是同时使用多个无人机,而是内部协调和集体工作。无人机在彼此之间传输数据,共同在环境中导航,其灵感来自于自然界的类似编队,如昆虫群、鱼群或鸟群。然而,与不依赖中央控制的自然群组不同,目前的机器人无人机群组是由人类操作员指挥的。操作员 "集体引导蜂群的(子集)",而不是控制每个单独的元素(Verbruggen,2019)。此外,自然界中的动物群体通常是统一的,而作为蜂群一部分的无人机可以有不同的尺寸,拥有不同的角色,包括战斗、侦察、情报收集和通信。目前的蜂群技术大多整合了具有或多或少同等能力的小型无人机(Kallenborn和Bleek,2018)。同时,军事人工智能和机器人系统的主要开发者一直在试验由几十架甚至可能是几百架无人机组成的蜂群(Rogers and Kunertova, 2022, p. 4)。
评估蜂群技术的状况是具有挑战性的,这主要是因为该领域的许多研究和开发项目是保密的。然而,在世界各地都可以看到将蜂群战术应用于无人机的兴趣。虽然蜂群尚未成为战场的一部分,但人们常说它们有可能从根本上 "改变 "现代战争(Scharre,2018;McMullan,2019)。无人机群可以整合人工智能应用,如计算机视觉和语音识别,以及决策中的算法,以执行监视、侦察、定位目标(包括核导弹),以及情报和数据收集任务(Johnson 2020a;Scharre 2014)。人工智能和计算机科学领域的进步有望使无人机群 "比单个人类飞行员完成更多种类的任务"(Johnson, 2019, p.151)。军方官员和分析家认为,无人机在处理信息方面更有效、更迅速,而在每架无人机后面都有一个人类操作员,成本高且耗时长(Scharre,2015)。蜂群被认为是一种相对低成本的发动协调攻击或机动以欺骗敌人的方式,是绕过防空系统的有效方法,用大量的车辆压倒敌军,以及协助运送常规武器和核武器(Johnson 2020b)。应用于无人机的蜂群战术可以在进攻行动中提供战略优势,因为敌人需要时间来击落蜂群中的每一架无人机,至少可以让其中一些无人机完成任务。分析家们还指出,蜂群可能是单个无人机的一个更便宜、更有效的替代品(Lachow,2017)。基于这些感知到的操作优势,许多主要的军事技术开发商一直忙于研究和展示他们的蜂群战术和技术。
2021年5月,以色列国防军使用了据说是小型和相对简单的无人机群,与地面导弹协调,对加沙地带的哈马斯武装分子进行 "定位、识别和打击"。这一事件被专家描述为首次在战斗中使用无人机群(Hambling, 2021; Kallenborn, 2021)。在2022年的实验演示网关演习中,美国武装部队测试了一系列名为 "狼群 "的无人机群,并将其描述为其所测试过的最大的互动群(Guckeen Tolson, 2022; Parsons, 2022)。同时,在2021年,英国(UK)武装部队测试了中型和重型无人机群,这些无人机 "被赋予独立寻找和识别敌方目标的任务,准确使用其一系列日益强大的传感器和目标获取算法"(皇家海军,2021)。2022年亮相的中国遥控船 "珠海云号"将是"全球首艘智能型无人系统母船",并被媒体描述为中国部署无人机蜂群进行海上监视的象征,这些无人机将从这一船型上发射(Saballa, 2022; Xie, 2022)。俄罗斯国防部也在积极支持蜂群研究和开发。它宣布了苏-57第五代战斗机在 "人工智能元素 "的帮助下与S-70 Okhotnik无人机中队协调的计划(Bendett, 2021; Lavrov and Ramm, 2021)。这样的趋势表明,无人机群会越来越多,并探索如何将它们与其他无人驾驶和有人驾驶的系统结合起来使用。此外,许多闲置弹药的生产商正在研究其平台的蜂群能力:目前至少有10个正在使用的系统的制造商在蜂群方面促进其发展(Bode and Watts, forthcoming)。
然而,蜂群技术的扩散和使用的增加带来了不确定性和担忧,特别是人类是否有能力保持对决策和武力使用的控制。我们能否相信无人机能够从它们收集的数据中 "学习",并以可预测和符合蜂群任务的方式做出反应,特别是在快速演变的冲突局势中?人类操作员很难保持对蜂群的完全控制,持续地与它沟通,并知道它做什么以及它如何对周围环境中不断变化的动态作出反应(Verbruggen, 2021)。目前,军方申明他们打算保持人类对无人机群或任何其他武器系统的控制。但随着蜂群的发展,我们可能很快就会进入这样的情况:一个人的操作者将负责一群平台。这给 "人在环内 "的保障带来了巨大压力,并改变了系统的整体可预测性,因为负责的人可能无法完全预见或理解蜂群的行为(Bode和Watts,即将出版)。此外,由于在使蜂群按计划运作方面存在技术挑战,预期的优势可能不会成为现实(Shmuel,2018)。例如,专家们对无人机群的安全影响提出警告,特别是敌人有能力入侵通信网络或传感器,以及发起对抗性攻击,愚弄解释通过传感器收集的数据的算法(Holland Michel, 2021)。
一些国家一直在努力将自主能力整合到更大的无人机模型中,这些模型仍在开发中。其中一个模型是Taranis,这是一个战斗无人机原型,也被称为技术示范机,由英国最大的安全和航空航天公司BAE系统公司在英国国防部的财政支持下制造(Burt, 2018; Doward, 2018)。它于2010年亮相,被英国政府称为 "对英国防空和英国国防工业的未来至关重要"(Hoyos,2014)。Taranis的生产商将其描述为 "对有人驾驶飞机的补充",并强调该无人机 "在人类操作员的控制下,可以进行持续监视,标记目标,收集情报,威慑对手,并在敌对地区实施打击"(Ingham, 2016; BAE Systems, no date)。同时,据说无人机可以在没有人类输入的情况下执行一些功能,包括空中作业以及目标选择和交战,这将把它归类为一个自主武器系统(Cole, 2016; Boulanin et al., 2020, p.57)。
同时,美国空军正在开发Skyborg计划,该计划被定义为 "自主飞机组队架构,它将使空军能够以足够的节奏部署、生产和维持任务架次,在有争议的环境中产生和维持战斗力"(空军研究实验室,无日期)。该计划的主要目标是在人工智能系统的帮助下,支持无人机和有人驾驶飞机在联合机群中的合作与协调(Tirpak,2021)。Skyborg的自主性核心系统(ACS)旨在提高自主性水平,使无人机能够在没有人类直接监督的情况下完成越来越多的任务(Osborn,2022)。空军已经在佛罗里达和墨西哥湾上空进行了一次由ACS控制的无人机试飞,据报道,预计Skyborg将在2023年准备好投入使用(Mayer, 2021; Mizokami, 2021)。与Taranis案例一样,Skyborg框架被描述为协助而不是取代人类飞行员,"为他们提供关键数据以支持快速、明智的决策"(Larson, 2021)。
总而言之,关于进一步开发和测试游荡弹药、蜂群和大型无人机模型中的自主性的报告引起了对无人机和武器系统中自主性所带来的机会和问题的广泛讨论。我们在下一节结论中探讨这些争论。
自主无人机的日益发展可以与三组因素相关,这些因素也推动了自主功能在武器系统中的整体整合:战略、作战和经济(Boulanin and Verbruggen, 2017, pp.61-63)。首先,从战略上看,美国、中国和俄罗斯等主要军事大国都将武器系统的自主性和人工智能的军事应用视为其安全战略和未来竞争力的基础(Haner和Garcia,2019)。因此,人工智能的武器化在新的大国竞争中发挥着明显的作用--不是 "自然 "的或必然的,而是因为主要军事大国选择了这种定位。
第二,在作战层面上,军事规划者认为,将自主性纳入目标定位,使军队有办法通过提高速度、精度和耐力来提高作战能力。军事人工智能应该使战斗空间更加清晰,便于识别对手,从而提高作战控制能力(例如,见国家人工智能安全委员会,2021)。一些专家认为,游荡弹药和蜂群技术将成为或已经成为现代战场的一部分,并拥有值得进一步投资的好处。无人机的自主性据说可以解决人类操作者和系统之间的通信漏洞,因为通信链路可以被 "干扰或黑掉"(Anderson and Waxman, 2013, p.7)。基于算法模型选择和识别目标的能力也经常被描述为更精确,"由于持续的盯梢[持续的视频监控使得有更多的时间进行决策和更多的眼睛盯着目标]"(Arkin, 2013, p.1)。这一论点经常被用来从法律角度证明自主性,并支持这样的信念,即具有自主功能的精确武器系统将更好地区分合法和非合法目标(例如,战争中的平民与战斗人员),这是规范武装冲突的国际人道主义法(IHL)的一个关键要求。
第三,从经济上讲,整合自主权已经与降低武器系统的财务成本有关,不仅是采购费用,还有运行成本。虽然自主无人机最初需要从设计、测试到部署的大量资源,但在财政和政治上,它们可能会比飞行员驾驶的喷气式战斗机更便宜。对于越来越小、越来越轻的自主无人机来说尤其如此:一架Switchblade-300装置的成本可以低至6000美元,这使得它们比MQ-9 "死神 "无人机(5600万美元)发射的AGM-114地狱火导弹(10万美元)要便宜得多(Atramazoglou,2022)。徘徊弹药和蜂群技术被认为是一种相对低成本、低风险的有效绕过防空系统和攻击坦克车队的方式。例如,在俄罗斯全面入侵乌克兰的背景下,一些分析家主张专门为乌克兰武装部队提供这些类型的无人机,并出于这些原因(Jensen, 2022)。
反过来说,日益自主的无人机发展至少伴随着法律、伦理/规范和技术方面的三个重大问题和障碍。首先,国际人道主义法规定了所有新武器系统,包括自主无人机,在使用时必须遵守的一般界限(Crootof, 2015)。这些包括基本原则,如区分平民和战斗人员、相称性和预防措施(Laufer,2017;McFarland,2020;Mauri,2022;Seixas-Nunes,2022)。遵守这些原则要求军队以某种形式保留对自主无人机的人类控制和监督,这不仅是因为国际法是针对人类的(Walsh,2015;Brehm,2017),而且还因为这些原则需要人类的审慎判断。人工智能和机器人技术专家早就警告说,在区分平民和战斗人员时,人工智能相对 "愚蠢"(Sharkey,2016)。虽然军事物体,如坦克、飞机和船只已经可以被机器识别,但对于一个基于人工智能的系统来说,区分人类是平民还是战斗人员几乎是不可能实现的(MacDonald,2021)。这不仅是因为人类如何对待这些类别无法让机器适应,而且还因为区分平民和战斗人员需要深思熟虑的、依赖环境的判断(Suchman,2016)。这在一个杂乱的空间,如城市环境中更为严重。围绕使用自主武器系统的重大法律不确定性,已经成为《特定常规武器公约》主持下的漫长国际辩论的主题--这一过程可能还会导致新的具体国际法的谈判(Bode and Huelss, 2022, pp.)
其次,自主无人机提出了关于将使用武力的决定权交给机器的基本伦理规范问题。学者们提出了 "道义论 "的论点,强调在使用武力时需要人的判断,其核心往往是人的尊严概念。人类尊严的概念被认为是政策的基准,认为自主无人机和其他自主武器无法"[......]理解或尊重生命的价值",因此"[......]使任何致命的决定变得武断和不负责任"(Sharkey, 2019, pp. 82-83)。还有一些与后果主义伦理学有关的论点,认为将自主权纳入武器系统是否有可能导致更 "道德 "的战争方式(Anderson和Waxman,2013)。参与辩论的人还认为,伦理学不再是复杂的道德问题,而是被视为"[......]单纯的技术问题"(Schwarz, 2019, p. 25)。一般来说,计算机科学和机器人学的专家同意,算法不能像人类一样进行道德反思,这在战争中是需要的,特别是在涉及到夺取其他人类的生命时。许多人认为,将它们整合到无人机中是一个令人担忧的趋势,就像将生死决定权交给不具备人类道德机构的机器一样。
第三,在战场上部署自主无人机时,有很大的不确定性,即激励这些系统的技术在复杂和动态环境中如何可靠和可预测地发挥作用(Holland Michel,2021)。人工智能驱动的目标是不确定的,因为人工智能是著名的脆性(麦克唐纳,2021;卡伦伯恩,2022)。这意味着它很容易被愚弄而犯错,例如通过对抗性攻击。这些攻击可以在物理空间中进行,方法是在物理物体上添加小的改动,或者添加人眼无法察觉的像素、数字噪音的变化(Huelss,2022)。这种改变可以使人工智能相信军事目标是其他东西,或者相反。在复杂的城市战场上,目标识别是一个特别令人担忧的问题,因为它给平民和友军士兵带来了风险(Kallenborn, 2022)。
总而言之,我们正处于自主无人机扩散的关键时刻,因为在这一领域的军事支出的呼声越来越高,而原本只是在开发中的系统却被匆匆推出,正如美国向乌克兰交付121枚实验性的 "凤凰幽灵 "徘徊弹药所表明的那样(Finnerty,2022)。从总体上看,当这些武器在对抗对手时显得很有效时,无人机在多大程度上包含自主功能的目标似乎并不重要。然而,这些趋势引起了人们的关注,因为在没有划定边界和减少审查的情况下,人类对武力使用的控制可能会逐步和悄悄地被放弃。