专家们一致认为,未来战争的特点将是使用人工智能(AI)技术,特别是完全自主的武器系统。这些系统--如美国空军的 "忠诚僚机 "无人机--能够在无人监督的情况下识别、跟踪和攻击目标。最近在加沙、利比亚、纳戈尔诺-卡拉巴赫和乌克兰等地的冲突中使用这些致命的自主武器系统提出了重要的法律、伦理和道德问题。

尽管人工智能被广泛应用,但目前仍不清楚人工智能增强型军事技术会如何改变战争的性质和态势。那些最担心将人工智能用于军事目的的人预见到了一个乌托邦式的未来或 "人工智能启示录",机器将成熟到足以主宰世界。一位政策分析师甚至预测,致命的自主武器系统 "将导致世界秩序的剧变,其程度将远远超过核武器问世时发生的变化"。其他观察家则质疑,鉴于通过算法模拟生物智能的复杂性,人工智能系统能在多大程度上真正取代人类。假设人工智能的这种扩展是可能的,那么依赖人工智能的军队将承担数据和判断成本,这可以说 "使战争中人的因素变得更加重要,而不是更加不重要"。

这些观点虽然有助于讨论人工智能对全球政治的潜在影响,但却无法解释人工智能究竟会如何改变战争的进行,以及士兵们对这一问题的看法。为了解决这个问题,作者最近研究了人工智能增强型军事技术--整合到不同决策层面和监督类型--如何影响美国军官对这些系统的信任,从而影响他们对战争轨迹的理解。在人工智能领域,信任被定义为一种信念,即一项自主技术在追求共同目标的过程中将可靠地按照预期执行。

图:XQ-58A Valkyrie "忠实僚机 "无人驾驶战斗飞行器由人工智能驱动,可在无人监督的情况下识别、跟踪和攻击目标。(图片:美国空军。 设计:François Diaz-Maurin/Erik English)

为了衡量军方对致命自主武器系统的信任程度,本文作者研究了就读于宾夕法尼亚州卡莱尔美国陆军战争学院和罗德岛州纽波特美国海军战争学院的军官的态度。军队未来的将军和海军上将都将来自这些军官,他们负责管理未来冲突中新兴能力的整合与使用。因此,他们的态度对于了解人工智能在多大程度上可能塑造一个由 "战争机器人 "陆军作战的新战争时代非常重要。

研究有三个重要发现。首先,军官对人工智能增强型军事技术的信任程度不同,这取决于整合这些技术的决策层以及对新能力的监督类型。其次,军官可以批准或支持采用人工智能增强型军事技术,但却不信任它们,这表明他们的态度不一致,对军事现代化产生了影响。第三,军官对人工智能能力的态度还会受到其他因素的影响,包括他们的道德信念、对人工智能军备竞赛的担忧以及教育水平。总之,这些发现首次提供了军队对战争中人工智能态度的实验证据,对军事现代化、自主武器的政策监督和专业军事教育(包括核指挥与控制)都有影响。

四种类型的人工智能战争

不同国家采用人工智能增强型军事技术的决策水平(战术或战略)和监督类型(人类或机器)各不相同。各国可以优化算法,在战场上执行战术行动,或进行战略审议,以支持总体战争目标。在战术上,此类技术可以快速分析从分布在战场上的传感器获取的大量数据,比对手更快地生成目标选择,从而提高战地指挥官的杀伤力。正如网络安全专家乔恩-林赛(Jon Lindsay)所说,"战斗可以被模拟为一场游戏,通过摧毁更多的敌人同时保全更多的友军来赢得胜利"。要做到这一点,就必须大大缩短 "从传感器到射手 "的时间线,即从获取目标到攻击目标的时间间隔。美国国防部的 "利马特遣部队"(Task Force Lima)和 "Maven计划"(Project Maven)都是此类人工智能应用的范例。

在战略上,人工智能增强型军事技术还能帮助政治和军事领导人将关键目标(目的)与作战方法(途径)和有限资源(手段)(包括物资和人员)相结合,实现同步。在未来的军事行动中,新的能力甚至可能出现并取代人类,包括制定战略方向和国家级战略。正如一位专家所言,人工智能已经显示出 "参与复杂分析和战略制定的潜力,可与发动战争所需的能力相媲美"。

与此同时,各国还可以调整对人工智能增强型军事技术的监督或控制类型。这些技术在设计上可以允许更多的人为监督,从而增强决策的自主性。这类系统通常被称为半自主系统,即仍受人类控制。这种监督模式是目前大多数人工智能增强武器系统(如通用原子公司的 MQ-9 "死神 "无人机)运行的特点。虽然 "死神 "可以自动驾驶,根据地形和天气条件的变化调整飞行高度和速度,但人类仍然可以做出瞄准决定。

各国还可以设计人工智能增强型军事技术,减少人工监督。这些系统通常被称为 "杀手机器人",因为人类不在其中。在这些应用中,人类行使的监督即使有,也是有限的,甚至在目标选择决策方面也是如此。决策水平和监督类型的差异表明,在采用人工智能增强型军事技术后,全球可能出现四种类型的战争。

图:人工智能战争的四种类型。(插图:François Diaz-Maurin)

首先,各国可以利用人工智能增强型军事技术在人类监督下进行战术决策。这就是保罗-沙雷(Paul Scharre)所说的 "半人马作战"。"半人马 "是希腊神话中的一种生物,上半身像人,下半身和腿像马,因此得名。半人马作战强调人类为战场目的控制机器,例如摧毁敌方武器库等目标。

其次,各国可以利用人工智能增强型军事技术,在机器监督下进行战术决策。这就从字面上颠覆了半人马战争,让人联想到古希腊的另一种神话生物--牛头人,它有牛的头和尾巴,人的身体。"牛头人战争 "的特点是在战斗中机器控制人类和跨领域作战,从地面上的士兵巡逻到海洋上的战舰编队,再到空中的战斗机编队,不一而足。

第三,战略决策加上机器监督,构成了 "人工智能将军 "或 "单兵 "类型的战争。这种方法为人工智能增强型军事技术提供了非同寻常的空间,以塑造各国的作战轨迹,但可能会对冲突期间国家间的攻防平衡产生严重影响。换言之,人工智能通用型作战可使各国在时间和空间上获得并保持对对手的优势,从而影响战争的总体结果。

最后,"马赛克战 "保留了人类对人工智能增强型军事技术的监督,但试图利用算法来优化战略决策,以强加和利用针对同行对手的弱点。美国海军陆战队退役将军约翰-艾伦(John Allen)将这种作战模式称为 "超战争",学者们通常将其称为算法决策支持系统。这些任务包括通过 "实时威胁预测 "过程预测敌人可能采取的行动(这是美国防部新的机器辅助分析快速存储系统或 MARS 的任务),确定最可行、最可接受和最合适的战略(Palantir 和 Scale AI 等公司正在研究如何做到这一点),以及调整后勤等关键作战功能,以帮助军队在印度洋-太平洋等补给线延伸的有争议作战环境中获得并保持主动权。

美国军官对人工智能战争的态度

为了解决军官在决策水平和监督类型不同的情况下如何信任人工智能增强型军事技术的问题,作者于 2023 年 10 月对分配到卡莱尔和纽波特战争学院的军官进行了一次调查。调查涉及四个实验组,这四个实验组在决策(战术或战略)和监督(人类或机器)方面对人工智能增强型军事技术的使用有所不同,还有一个基线组没有操纵这些属性。在阅读了随机分配的场景后,要求受访者用 1 分(低)到 5 分(高)来评价他们对该能力的信任度和支持度。然后,使用统计方法对数据进行了分析。

虽然样本不能代表美国军队(也不能代表其分支,如美国陆军和海军),但它是政治学家所说的便利样本。这有助于得出极为罕见的见解,了解军人如何信任人工智能增强型军事技术,以及这种信任对战争性质的影响。

这个样本也是对人工智能出现后未来战争可能发生的变化的理解的一个艰难考验,因为抽取了过多的野战军级军官,包括少校/中校、中校/指挥官和上校/上尉。他们接受过多年的训练,是目标瞄准方面的专家,许多人都曾参加过战斗部署,并对无人机做出过决策。他们也是新兴的高级领导人,负责评估新技术对未来冲突的影响。这些特点意味着,样本中的军官可能比军队中的其他人员更不信任人工智能增强型军事技术,尤其是那些常被称为 "数字原住民 "的初级军官。

这项调查揭示了几个重要发现。首先,基于对这些新能力的决策水平和监督类型的不同,军官对人工智能增强型军事技术的信任程度也不同。虽然军官们普遍不信任不同类型的人工智能增强型武器,但他们最不信任用于单兵作战(由机器监督的战略决策)的能力。另一方面,他们对马赛克战争(人工智能优化战略决策的人工监督)表现出更多的信任。这表明,军官们始终倾向于由人类控制人工智能来识别敌方活动的细微模式、生成军事方案以应对对手的多重困境,或者在长期冲突中帮助维持战备状态。

与基线组相比,军官对人工智能军事技术的信任度在单兵作战(18.8%)方面的下降幅度要大于马赛克作战(10.5%)--见图 1。虽然与基线组相比,两种类型的人工智能增强型战争中军官的平均信任度差异在统计上都很显著,但用于单兵作战的新军事能力比用于马赛克战争的更明显。此外,军官对两类人工智能增强型战争的信任概率的平均变化(即人工智能增强型军事技术对军官信任的平均边际效应)仅对单兵作战具有统计意义。总体而言,这些结果表明,军官对人工智能增强型军事技术的不信任程度较低,因为这些技术是在人类监督下用于辅助高层决策的。

这些关于信任度的结果在很大程度上反映了军官的支持态度。与基线组相比,军官对用于单兵作战的人工智能增强型军事技术的支持程度较低,支持率为 18.3%,统计显著性几乎相同。不过,与基线组相比,军官对牛头人战争的支持程度也高于其他人工智能增强型战争模式,支持程度的变化约为 6.5%。这表明,虽然军官们对用于较高层次决策和人工控制的人工智能增强型军事技术的不信任程度较低,但他们更支持用于战术级决策和机器监督的人工智能增强型军事技术。总之,军官们的态度似乎反映了国王学院教授肯尼斯-佩恩(Kenneth Payne)的论点:"战争机器人将成为令人难以置信的战斗员,但却是有限的战略家"。

图 1. 与基线组相比,四类人工智能战争的信任度和支持度。注:数值代表与基线组相比,各处理组对人工智能增强型军事技术的支持度和信任度的变化。当支持度和信任度与基线组相比下降时,数值为负。(数据:Paul Lushenko;可视化:François Diaz-Maurin)

军官们对在战术层面使用人工智能增强型军事技术的支持度相对较高,这揭示了第二个关键发现。军官们对人工智能增强型军事技术的态度可能是支持比信任更明显。这意味着一些学者所说的 "信任悖论"。军官们似乎支持采用人工智能增强的新型战场技术,即使他们并不一定信任这些技术。这种现象主要与 "牛头人 "战争有关(使用人工智能进行战术决策并由机器监督)。这表明,军官们预计人工智能增强型军事技术将压缩对手的机动时间和空间,同时扩大美军的机动时间和空间,而美军的机动时间和空间是建立在缩短 "从传感器到射手 "的时间线基础上的,高级军事领导人认为这是在未来冲突中击败近邻对手的关键。

军官对用于战术层面决策和机器监督的人工智能增强型军事技术的支持程度差异大于其信任度的变化(图 2)。此外,结果表明,军官在信任和支持态度上的差异在统计学上具有显著性: 军官对用于牛头人战争的人工智能增强型军事技术的支持程度要高于对它们的信任程度。军官支持用于牛头人战争的人工智能增强型军事技术的平均概率变化也高于其他三种类型的人工智能增强型战争。

综合来看,这些结果表明美国军官对人工智能增强型军事技术的支持和信任存在信念偏差。尽管军官们支持采用此类技术来优化不同层次和不同程度的监督决策,但他们并不信任因新兴的人工智能能力而导致的潜在战争类型。这一结果表明,美国军官可能认为有义务接受与他们自己的偏好和态度相悖的预计战争形式,特别是作为美国陆军和海军新兴作战概念基础的牛头人战争。

图 2. 对四类人工智能战争的信任和支持。注:数值代表各处理组对人工智能增强型军事技术的支持和信任的平均水平。(数据:Paul Lushenko;可视化:François Diaz-Maurin)

其他因素进一步解释了军官对人工智能增强型军事技术信任度的差异。在作者的调查中,当控制了决策水平和监督类型的差异后,发现军官对这些技术的态度也可能受到潜在的道德、工具和教育因素的影响。

认为美国有道义上的义务在国外使用人工智能增强型军事技术的军官,反映出他们对这些新战场能力的信任程度较高,这与支持的态度也是一致的。这表明,军官对在国外使用人工智能增强型军事技术(如在人道主义援助和救灾行动中)的潜在益处的道德信念,可能有助于克服他们对采用这些能力的固有不信任。

此外,重视人工智能增强型军事技术的工具价值并对其抱有 "害怕错过 "态度的军官--即他们认为其他国家采用这些技术会迫使美国也采用这些技术,以免在潜在的人工智能军备竞赛中处于不利地位--也倾向于对这些新兴能力抱有更大的信任。在考虑教育时,也观察到了类似的信任态度。结果显示,高等教育降低了军官对人工智能增强型军事技术的信任度,这意味着更多或更专业的知识会让人对未来战争中人工智能的优点和局限性产生疑问。最后,在这些规范性和工具性考虑的交叉点上,作者发现那些认为军事力量对于维护全球秩序是必要的军官也更支持使用人工智能增强型军事技术。这些结果共同加强了早先的研究,即军官的世界观决定了他们对战场技术的态度,军官在评估他们对在国外使用武力的信任和支持时可以整合不同的逻辑。

如何让军官更好地为人工智能战争做好准备

有关美国军官对人工智能态度的第一手证据,描绘了一幅新兴技术带来的战争特征演变的复杂图景,这比一些分析家所认为的要复杂得多。然而,这些态度对作战现代化和政策以及军官的专业军事教育(包括核武器管理)都有影响。

首先,尽管一些美国军事领导人声称 "我们正在目睹战争性质的巨大变化,而这主要又是由技术驱动的",但在冲突中出现的人工智能增强型军事技术可能更多的是一种演变,而不是一场革命。虽然加沙战争和乌克兰战争表明军队作战方式发生了重要变化,但它们也反映了关键的连续性。军队传统上一直寻求利用新技术来提高情报能力、保护部队、扩大战术和作战火力范围,这一切在战场上产生了 "根本的不对称"。最近,各国使用和限制无人机方式的变化也被证明影响了公众对合法或非法使用武力的看法,这一结果与新兴的完全自主军事技术是一致的。

然而,这些能力和其他能力对战争中战略结果的影响充其量只是个疑问。战争中的战略成功仍然取决于各国是否愿意牺牲士兵的生命和纳税人的钱财来实现支持国家重大利益的政治和军事目标。事实上,在研究中,军官们可能最支持用于牛头人战争的人工智能增强型军事技术。但是,考虑到围绕军事创新的炒作--如果不是夸张和恐惧--,研究参与者对新战场技术的总体信任和支持程度仍然远远低于预期。这些结果表明,对于人工智能对未来冲突的范式性影响,军事领导人应该降低他们的预期。换句话说,应该 "做好被人工智能失望的准备"。美国陆军中校迈克尔-弗格森(Michael Ferguson)认为,由于缺乏这种清晰的视角,"时髦的理论将战争变成了委婉语的歌舞伎",掩盖了残酷的战斗现实。战争是意志的碰撞,充满人性,并受政治目标的制约。

其次,军官对人工智能增强型军事技术的信任态度比本研究显示的更为复杂。事实上,正如一位前美国空军上校、现任联合参谋部J-8局分析师所指出的,"操作人员很难高概率地预测系统在面对适应性对手时的实际表现,这可能会削弱对系统的信任"。在另一项正在进行的研究中,发现军官对人工智能增强型军事技术的信任会受到一系列复杂因素的影响。这些因素包括技术规格,即其非致命目的、更高的精确度和人类监督;在平民保护、部队保护和任务完成方面的感知有效性;以及监督,包括国内监管,尤其是国际监管。事实上,本研究中的一名军官指出,对人工智能增强型军事技术的信任是建立在 "遵守国际法而非美国国内法 "的基础上的。

这些结果表明,需要对新型能力进行更多的测试和实验,使其使用符合军人的期望。政策制定者和军事领导人还必须明确应鼓励开发人工智能增强型军事技术的作战概念;指导其在不同领域、不同层级和不同目的中整合的条令;以及规范其使用的政策。对于后一项任务,官员们必须解释美国的政策如何与国际法律相吻合或背道而驰,以及哪些规范是使用人工智能增强型军事技术的条件,至少要考虑到战地级别的军官期望如何使用这些能力。为了填补这一空白,白宫最近宣布了美国关于负责任地在军事上使用人工智能和自主功能与系统的政策,国防部通过了一项指令,规范美军自主武器的开发和使用,五角大楼还设立了首席数字与人工智能办公室,以帮助执行这一指令,不过据报道,该办公室受到预算和人事方面的挑战。

最后,军事领导人还应改革专业军事教育,让军官了解人工智能的优点和局限性。他们应该探索人工智能在其他战略环境中的应用,包括核指挥与控制。美国军方的许多举措已经反映了这一需求,尤其是考虑到军官们在与人工智能能力合作时犹豫不决。

在作战方面,由美国陆军第 18 空降军领导的 "里奇韦项目 "旨在将人工智能整合到瞄准过程中。与之相匹配的是 "阿米莉亚 "和 "忠诚僚机",它们是海军和空军旨在优化人员流程和作战的项目。在体制上,除了预先存在的认证课程外,一些分析师鼓励将数据素养评估纳入基于人才的评估计划,如美国陆军的指挥官评估计划。在教育方面,军事院校和战争学院都有专门研究人工智能对未来战争影响的教师、研究中心和选修课。美国陆军战争学院最近聘请了一名数据科学教授,美国海军学院设有 "武器、机器人和控制工程 "研究集群,美国海军战争学院开设了 "战略领导人人工智能 "选修课。

图:MQ-9 "死神 "发射了一枚空对地导弹-114 "地狱火 "导弹,它是一种无遥控驾驶飞机,可用于情报、侦察和打击。(图片:美国空军。 设计:François Diaz-Maurin)

与此同时,在美国海军战争学院和其他地方进行的兵棋推演表明,网络能力可以鼓励自动化和将核指挥与控制权预先下放给战术指挥层,并激励积极的反击战略。但研究结果表明,一个令人费解的结果值得更多的检验。从表面上看,尽管结果可能与战争中使用核武器的结果相同,但这些结果提出了一个令人不安的问题: 正如研究结果所表明的那样,即使军官们不信任人工智能,不信任或不支持使用人工智能来管理反制战略,他们是否真的愿意支持潜在的自动化以及将核指挥与控制权预先下放给战术级人工智能?

俄罗斯威胁在乌克兰使用核武器,这促使美国军方重新审视在大国战争中有限使用核武器的可能性。尽管这种 "回到未来 "的情景令人恐惧,而且与冷战期间战术核武器的扩散不谋而合,但美国战争学院还是重振了教育工作,为参与大规模冲突的国家之间的战术核交换做好作战准备。

然而,这些举措和其他举措在多大程度上有效地对军官进行了人工智能教育尚不清楚。问题的部分原因在于,这些举措将相互竞争的教学方法对立起来。一些计划以 "一英里宽、一英寸深 "的方式调查数据扫盲和人工智能,将一门课纳入更广泛课程的一门课程中。其他计划则提供更多的发展机会,并采用 "更窄更深 "的方法,让少数官员自愿选择选修课,将其放在更广泛的课程之上。还有一些项目,如美国陆军战争学院的项目,尝试采用 "金线 "方法,将数据素养和人工智能贯穿于课程中,从而构建出更广泛的教学计划。然而,后一种方法迫使管理者在内容和时间上做出重要权衡,并要求教师具备深入的专业知识。

展望未来,负责协调整个美国联合部队培训和教育工作的联合参谋部 J-7 应将专业军事教育概念化,使其成为数据素养和人工智能教学方面长期持续、不断丰富的连续体。服役院校的预备役学生或参加后备军官培训团的学生应接触有关人工智能的基本概念。初级和中级军官应在培训、部署和参加中级教育(如美国陆军指挥与总参谋学院)期间将这些见解融会贯通。在被选入战争学院后,军官们应与有关在战斗中使用人工智能的概念性、规范性和工具性考量因素进行斗争,研究表明,这些考量因素可以塑造军队对新技术的态度。

当然,采用这种端对端的教育方法需要时间和资金。它还容易受到不同利益相关者的特权、军种文化和军种间竞争的影响。然而,通过将培训和教育与明确可行的学习成果相结合,这种整体教学模式充分利用了现有的机会,确保美军做好准备,愿意在和平时期和未来战争中采用人工智能增强型军事技术,并使其使用方式符合国际法律和规范。

参考来源:Bulletin of the Atomic Scientists,Paul Lushenko

成为VIP会员查看完整内容
41

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
俄乌战争与加以冲突:人工智能走向战场
专知会员服务
74+阅读 · 2023年11月27日
军事数据空间:挑战、机遇和用例
专知会员服务
78+阅读 · 2023年11月14日
未来战争中的人工智能、无人机蜂群和升级风险
专知会员服务
31+阅读 · 2023年11月6日
战争算法:人工智能在武装冲突决策中的应用,ICRC视角
专知会员服务
77+阅读 · 2023年10月28日
释放战略潜能: 电子战中的人工智能
专知会员服务
63+阅读 · 2023年10月5日
美国陆军希望人工智能能为士兵带来信息优势
专知会员服务
37+阅读 · 2023年9月21日
人工智能和军备控制,80页pdf
专知会员服务
55+阅读 · 2022年11月2日
美国公开《无人系统综合路线图(2017-2042)》
进攻机动作战中的机器人集群
无人机
16+阅读 · 2017年12月4日
【智能军工】算法战:牵引美军人工智能军事化应用
产业智能官
16+阅读 · 2017年11月29日
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2012年12月31日
Arxiv
114+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
279+阅读 · 2023年3月31日
Arxiv
95+阅读 · 2023年3月24日
Arxiv
13+阅读 · 2023年3月17日
VIP会员
相关VIP内容
俄乌战争与加以冲突:人工智能走向战场
专知会员服务
74+阅读 · 2023年11月27日
军事数据空间:挑战、机遇和用例
专知会员服务
78+阅读 · 2023年11月14日
未来战争中的人工智能、无人机蜂群和升级风险
专知会员服务
31+阅读 · 2023年11月6日
战争算法:人工智能在武装冲突决策中的应用,ICRC视角
专知会员服务
77+阅读 · 2023年10月28日
释放战略潜能: 电子战中的人工智能
专知会员服务
63+阅读 · 2023年10月5日
美国陆军希望人工智能能为士兵带来信息优势
专知会员服务
37+阅读 · 2023年9月21日
人工智能和军备控制,80页pdf
专知会员服务
55+阅读 · 2022年11月2日
相关基金
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员