众所周知,新兴技术会影响各国开展军事行动的方式。最近,全球在自主武器系统(AWS)的开发和部署、网络空间的军事用途等方面看到了显着的创新。然而,在正在进行的冲突中观察到重大飞跃的一个新兴领域是具有军事应用的非武器化人工智能 (AI)。

最近,几位以色列国防军 (IDF) 官员承认将基于人工智能的工具用于多种目的,包括目标支持、情报分析、主动预测以及简化指挥和控制 (C2)。在这种背景下,当前的以色列-哈马斯冲突使以色列部署此类系统成为人们关注的焦点,其中Habsora或“福音”,一种基于人工智能的系统,用于生成可能的军事攻击目标,吸引了最多的关注。

对冲突的报道表明,以色列国防军使用人工智能作为“数据驱动的工厂”进行“大规模暗杀”。归根结底,这种评论一方面取决于对军队如何运作的解释,另一方面取决于人工智能工具实际上可以做什么和不能做什么。这种过于频繁的评论促使人们对以色列国防军在战场上使用的系统有所了解。撇开夸张不谈,目标是研究这些极具影响力的系统,并反思法律和道德方面的考虑。在此过程中,突出了在实践中引入基于人工智能的新工具的愿望及其实际使用存在的法律限制。在这篇文章中,还详细介绍了以色列国防军在当前冲突之外使用人工智能系统的发展经验。目标是加入关于将人工智能引入战场的适当方式的新讨论,无论是在以色列-哈马斯冲突中还是在其他方面。

以色列、技术和战争

以色列是技术领域的主导者,它利用其能力作为其外交工具箱的一部分,将自己确立为国际技术治理设计的领导者。以色列在政府、安全部门和私营部门之间建立了牢固的伙伴关系,这使以色列能够在军事技术方面取得实质性进展。

与此同时,这种密切的伙伴关系可能成为适当监督技术发展及其在各个领域和情况下部署挑战的根源,从纯粹的军事到执法再到情报行动。

虽然人工智能并不是一个新发展,但近年来,人工智能驱动的能力及其军事应用取得了重大飞跃。因此,国家和超国家层面的立法者和监管机构正在觉醒,试图赶上这一新的技术发展浪潮。全球人工智能炒作,由于免费提供的生成式人工智能工具而加剧,已经进入了军事领域。随着这些能力在武装冲突中迅速成为现实,必须研究以色列国防军在战场上部署的一些基于人工智能的工具。

以色列国防军的人工智能趋势

  • 情报分析、目标定位和弹药

集成基于人工智能的工具来分析大量数据对于应对现代战场上大量涌入的数据至关重要。情报、监视和侦察 (ISR) 技术的发展轨迹表明,未来的 ISR 能力将取决于人工智能驱动的决策支持系统 (DSS)。以色列国防军对这一趋势并不陌生,加沙持续的冲突和以前的升级都表明了这一点。

以色列国防军使用的决策支持系统之一是“火力工厂”,它可以仔细分析广泛的数据集,包括有关先前授权的打击目标的历史数据,从而能够计算所需的弹药数量,提出最佳时间表,以及目标的优先级和分配。在战役上,它是目标定位周期的第二阶段(目标开发)和第三阶段(能力分析)的合并。从功能上讲,它类似于美国 Prometheus 和 FIRESTORM 算法的混合体,就像在 “融合项目”-21 期间部署的那样。

最近引起争议的系统是“福音”,它帮助以色列国防军军事情报部门改进建议并确定关键目标。以色列国防军使用人工智能进行目标开发对这场冲突并不陌生。2021 年,在“城墙守护者”行动期间,以色列信号情报小组 8200 部队内的人工智能中心负责人透露,以色列国防军有效地部署了一个人工智能系统,以识别加沙境内的哈马斯导弹部队领导人和反坦克特工。在正在进行的军事行动“铁剑”中,同一工具的战斗使用产生了 200 个军事目标选项,用于战略交战。系统在几秒钟内执行此过程,而以前需要众多分析师在数周内完成这项任务。

在这方面,还值得注意的是,以色列国防军透露了情报部门内发展部门 3060 部队的存在。该单位负责推进作战和视觉情报系统,该部队的官方任务是通过整合用于作战和视觉目的的人工智能系统来提高以色列国防军的作战效率。该单位产出的受益者包括该组织的指挥、师和旅级别。

最后,以色列国防军部署人工智能来改进武器和弹药本身。例如,以色列公司拉斐尔(Rafael)因其对以色列国防军的重大贡献而受到认可,该公司推出了一种名为“SPIKE LR II”的先进导弹系统,该系统结合了智能目标跟踪功能、人工智能和其他功能,以在具有挑战性的条件下维持目标锁定,所需的人为干预最少。此外,基于人工智能的系统,如Elbit开发的Legion-X平台,允许同时使用各种无人驾驶车辆的C2。

  • 主动预测、威胁警报和防御系统

基于人工智能的工具还可以检测、提醒和偶尔预防灾难性情况,并有助于有效的危机管理。例如,北约在其救灾演习中使用基于人工智能的系统来处理航空图像并迅速识别受害者。同样,以色列国防军将人工智能技术用于类似目的。据以色列国防军称,在 2021 年“隔离墙守护者”行动期间,基于人工智能的系统成功地从大量潜在威胁人员中识别出哈马斯在加沙的防空和导弹部队的指挥官。

此外,“铁穹”和“David’s Sling”是以色列的导弹防御系统,以其在保护关键基础设施免受向以色列领土发射的火箭威胁方面的救生能力而闻名。人工智能在铁穹中的一个重要应用是提高系统精度。特别是,人工智能驱动的算法分析雷达和其他传感器数据,以跟踪来袭导弹,并计算出更有效地拦截这些导弹并确定目标优先级的最佳时间。人工智能使系统更有效地应对更广泛的威胁,如无人机和其他小型低空飞行物体。最后,使用人工智能将铁穹的成功率提高到90%以上,并降低了作战成本。这很重要,因为这些威胁正变得越来越普遍,并对传统的防空系统构成挑战,这在俄乌战争中很明显。

以色列国防军还利用人工智能为边境管制服务,例如,为协助边境观察员而开发的人工智能系统,包括通过人工智能辅助的面部识别工具。边境系统进行视频分析,熟练识别个人、车辆、动物,甚至武装人员或特定车型。该系统不仅包括实时视频分析,还包含许多附加因素,例如特定地理区域的历史数据。10 月 7 日的攻击引发了有关该系统的几个危险信号,但在进行官方调查之前,很难确定确切的故障。

  • 流线型 C2

另一个受 AI DSS 影响的领域是 C2 系统。在2022年的“破晓行动”期间,首次尝试以这种新颖的方式使用人工智能,在此期间,计算机服务局、情报部门、南方司令部和北方司令部之间建立了联系。主要职能是向指挥官介绍不同部队在即将到来的军事行动中的战备状态。事实证明,这个试点项目在当前的以色列-哈马斯战争中是相关的,因为在这场冲突中,使用基于人工智能的系统成为以色列国防军作案手法的一个组成部分。

与战场上的人工智能相关的挑战

在过去十年中,人工智能不断融入军事装备所带来的挑战和机遇一直受到激烈的讨论,而且往往是循环讨论。然而,在《联合国常规武器公约》主持下举行的主要国际论坛——致命AWS政府专家组(LAWS)内部的国际监管辩论仍然局限于具有自主功能的武器系统。

以色列国防军在福音和Legion-X方面的经验以及媒体评论表明,军事人工智能在这些公共论坛上是容易被误解。首先,在本文提到的所有各种系统中,只有铁穹和 David's Sling 可以归类为 AWS;其他的根本不是武器,因此不在政府专家小组关于法律的职权范围之内。其次,最有争议的制度——福音——既不是武器,也不是决策制度。相反,对于可能选择无视这些建议的指挥官来说,它是一种决策支持工具,因此,它应该被视为一种作战手段,因为它形成了一个军事系统或平台,用于促进军事行动。

然而,这并不意味着对此类系统的内部运作没有担忧。特别是,关于它所依赖的算法的可解释性仍然存在有效的问题,尤其是在生成人类目标方面。与此相关的是,当系统出现错误时,人们可能会想知道可用的问责途径。虽然这两种担忧都是有道理的,但值得注意的是,对战场失误的问责仍然概念化不足,几乎不存在,无论它是否是使用先进技术的结果。然而,值得承认的是,人工智能系统无法阐明其操作流程,可能会影响对涉嫌违反国际人道法的行为进行调查的职责。

另一个关键问题是,在决策过程中(在/开/关循环)中需要或必要的适当程度的人类参与。这种关切提出了一个重要的问题,有三个关键目的:提高决策的准确性;增强合法性;并确保问责制。首先,人类的参与可以提高决策的准确性和质量,并且可以作为预防或减少错误的重要保障。与此同时,鉴于人类能力的限制,在基于人工智能的系统背景下做出决策的速度和数量确实构成了挑战。

其次,正如实证研究表明的那样,将人纳入决策过程可以增强决策的合法性并增强公众信任。以色列国防军面临着与合法性相关的挑战,并一次又一次地面临全球批评,在以色列-哈马斯战争中使用人工智能的背景下,可以看到一些媒体指责以色列国防军经营“大规模暗杀工厂”(与福音系统有关)。

第三,就问责制而言,人为因素的存在变得至关重要。截至今天,以色列国防军指挥官在进攻行动方面拥有最终决策权。随着关于如何解释人类在现代战斗中的作用的辩论仍在继续,学术界和加沙正在进行的冲突都表明,美化人类属性作为对机器的制衡与现实完全脱节。

另一个值得注意的挑战,与人类在决策过程中的作用有关,是被称为“自动化偏见”的现象。虽然如前所述,以色列国防军指挥官可以选择无视福音中的建议,并且每个目标都必须获得以色列国防军指挥官的授权,但避免自动化偏见具有挑战性,尤其是在敌对行动加剧期间。自动化偏见是指过度依赖或过度信任 AI 输出的倾向。虽然人工智能DSS是战斗中的宝贵工具,可以加快决策步伐并获得这种加速的相关优势,但自动化偏差的风险可能很大,应该在可能使用人工智能工具的作战部队接受的训练中加以考虑。

前方道路的开端——武器、作战手段和方法的回顾

国际人道法的一个基本原则是,各国在选择武器、作战手段或方法时受到国际法规范的限制。以色列引入基于人工智能的工具引发了某种形式的合法性审查机制,例如《日内瓦公约第一附加议定书》(AP I)第36条规定的机制。根据该条,各国应在战场部署新武器、作战手段或方法之前对其进行评估。“武器”一词被理解为包括在战斗中使用的一系列能够对物体造成损害或对人员造成伤害或死亡的攻击能力。“作战手段”是一个更广泛的术语,延伸到用于促进军事行动的军事装备、系统、平台和其他相关设备。例如,如果监视系统可以收集有关潜在军事目标的信息,则属于这一类。相比之下,“战争方法”延伸到各种军事战略和实践,以及军事行动中使用的特定战术。

虽然以色列不是《第一附加议定书》的缔约国,而且第36条的习惯地位仍然值得怀疑,但人权事务委员会在其第36号一般性意见中采取的办法是,确保保护生命权需要采取预防性影响评估措施,包括对新武器、作战手段和方法进行合法性审查。然而,应当指出的是,一般性意见本身并不是强制性的,而是对《公民权利和政治权利国际公约》所依据的生命权提出的一种建议性解释,这种解释引起了一些争议。

网络空间已成为军事行动的重要领域,网络攻击现在是武装冲突现实中不可或缺的一部分。各国似乎准备将人工智能工具纳入网络行动。像福音和Legion-X这样的工具确实构成了一种新的战争手段,应该受到法律审查。法律审查是新技术和能力组合中的一个关键方面,因为这些技术和能力对人道主义利益的影响和业绩的可预测性缺乏科学确定性。

事实上,第36条并没有规定进行审查的任何特定方式,而且各国所使用的实际机制在形式、方法、审查机构的任务等方面各不相同。然而,值得注意的是,根据红十字国际委员会的说法,审查应尽可能采用多学科方法,特别是当存在几种可能的影响时(例如,当对不同权利产生影响时,例如隐私权或健康权),或者当评估需要特定的专业知识时。

结束语

在部署新的基于人工智能的军事工具时,有谨慎的余地,因为没有基准可循。鉴于以色列的经验,至少是公众所知道的,可以提出一些初步的想法。

首先,一个重要的步骤是通过预防性影响评估措施来评估新技术的合法性的初步措施。这可以通过对发展的监管(类似第36条的机制)、贸易限制或隐私设计等程序来实现。实际上,今后的道路将包括不同阶段(规划、设计、部署和追溯审查)的各种工具,国内和国际系统应力求协调和互补。

其次,虽然依赖人工智能的趋势是显而易见的,但整个人工智能系统存在一些固有的风险,比如缺乏可解释性,在某些情况下可能会引发有关个人问责制的问题。

第三,虽然私营部门在预防、教育、调查和归因网络行动方面至关重要,但应该避免过度私有化和权力和责任的分散。

最后,随着世界在理想和价值观上的分歧越来越大,在促进有效的国际反应方面存在困难。因此,除非实施额外的规范性措施以更好地应对这一挑战,否则必须考虑现有规则如何适用于这一新的和不断变化的现实。

参考来源:LIEBER INSTITUTE

成为VIP会员查看完整内容
52

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
以色列在加沙战争中部署新的军事人工智能
专知会员服务
60+阅读 · 2月11日
俄乌战争与加以冲突:人工智能走向战场
专知会员服务
121+阅读 · 2023年11月27日
《人工智能在军事武器系统中的崛起》
专知会员服务
142+阅读 · 2023年3月21日
美陆军计划部署四大新型地面无人系统
无人机
25+阅读 · 2019年4月30日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
34+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
38+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
47+阅读 · 2011年12月31日
A Survey of Large Language Models
Arxiv
407+阅读 · 2023年3月31日
Arxiv
21+阅读 · 2023年3月17日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
34+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
38+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
47+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员