人工智能(AI)有可能影响所有领域和大规模的军事行动。本章探讨了人工智能系统如何影响准备和开展军事行动的主要工具,以及如何受其影响。本章分析和讨论了人工智能在战略、条令、规划、交战规则和命令方面的多层次影响。采取了一个广泛的分析角度,能够根据新的政策和技术发展,以及对政治、军事、法律和道德观点的考虑,对这个问题进行总体审查。因此,本章确定了机遇、挑战和开放性问题,并提出了总体性的意见。提供了洞察力和途径,以推进对人工智能在军事行动中的适当整合、管理和使用的进一步思考、研究和决策。

引言

人工智能(AI)的军事应用有可能影响所有领域和大规模的军事行动的准备和进行。人工智能系统可以越来越多地支持和取代人类完成军事任务,因为它们变得更快、更准确,并能够处理更多的信息和更高的复杂程度。这可能促进军事行动速度的提高和更好的军事决策,最终为拥有高性能人工智能的武装部队提供显著优势。人工智能的军事用途甚至可能导致军事事务的另一场革命,尽管这种发展将取决于其他因素而不仅仅是技术。

人工智能可以被用于各种军事目的。在多维战场上,人工智能技术可以被用作传感器、规划者和战斗机,或两者的结合。更具体地说,人工智能的军事应用可以从支持情报、监视和侦察(ISR)的系统到自主导航和目标识别系统。这可能导致军事人员和人工智能系统之间不同形式的互动,以及将军事任务委托给人工智能系统的不同层次。例如,人工智能系统可以在决策过程中协助指挥官和士兵,无人驾驶的人工智能系统可以与有人驾驶的系统一起协作,人工智能系统可以在最少的人类监督下自主运行。 虽然目前只存在狭义和特定任务的人工智能,但正在大力发展人工通用智能(AGI)--具有类似于人类思维的广泛领域推理能力的系统。 这与人工智能系统的自主性不断增强的趋势是一致的。

鉴于人工智能的特殊性和未来的应用,出现了一个问题,即人工智能的引入将如何影响军事行动。本章通过评估人工智能如何影响准备和进行军事行动的主要工具并受其影响来探讨这一问题。具体而言,本章分析和讨论了人工智能在战略(第1分章)、条令(第2分章)、规划(第3分章)、交战规则(第4分章)和命令(第5分章)方面的多层次影响。以下各章将对每个工具进行一般性解释,然后讨论这些工具与人工智能的具体相互关系。

本章采取了一个广泛的分析角度,包括了部队整合和指挥与控制(C2)等军事概念的各个方面,但并不限于此。 这使得在新政策和技术发展的基础上,以及在考虑政治、军事、法律和伦理角度的情况下,能够对这个问题进行更全面的审查。因此,本章确定了机遇、挑战和开放性问题,并提出了总体性的意见。本章最后发现了人工智能与准备和进行军事行动的主要工具之间的动态相互关系,并将人类操作员和人工智能之间的互动定位为核心基本问题。

由于军事人工智能是最近才出现的,因此对纳入人工智能的未来军事行动的任何分析只能是暂时性的,并基于这样一个前提,即目前对具有高度自主性的人工智能,进行操作化的挑战将被克服。然而,鉴于技术的快速发展,本章为推动进一步的思考、研究和政策制定提供了见解和途径,以便在军事行动中适当整合、管理和使用AI。

1. 战略与人工智能

军事行动为国家的政治和战略目标服务。在战争的三个层面(战略、战役和战术)中,军事战略是最高的。它可以被描述为 "战争的安排 "或 "战争的方向"。它为军事行动提供依据,处于政治和军事领域的交界处。 从本质上讲,军事战略是一项计划,它将最终目标与实现这一目标的手段联系起来。更具体地说,军事战略可以被定义为 "使用武装力量来实现军事目标,进而实现战争的政治目的 "或 "在战争中达到预期结果的概念和实际考虑的表现,涉及对特定敌人的组织、运动和战术、战役和战略使用或承诺的力量。国家安全和国防战略可以为军事战略建立总体框架,而且经常可以在白皮书中找到。

各国还没有公开通报他们如何使用或打算使用人工智能来制定军事战略。因此,在现阶段,分析人工智能对军事战略的影响以及反之亦然,必须依靠国防白皮书和各国的人工智能战略。一般来说,虽然在过去几年中,大约有50个国家发布了关于人工智能在多个部门(特别是民用和工业部门)的使用、发展和融资的官方人工智能战略,但这些文件一般不关注或几乎不提及国防应用。然而,主要军事强国最近通过了与军事人工智能有关的国家战略或类似文件,表明各国已经意识到军事人工智能的战略重要性,并指导他们努力开发、采购和将人工智能系统纳入其武装部队。

美国国防部(DOD)在2018年发布了一项人工智能战略,该战略强调了优先发展的领域,确定了应如何与民间社会组织建立发展伙伴关系,并制定了一项关于人工智能机器伦理的政策生成计划。美国人工智能国家安全委员会在2021年发布了一份报告,提出了与人工智能有关的国家防御战略。 目标是到2025年达到人工智能准备,这意味着 "组织改革,设计创新的作战概念,建立人工智能和数字准备的性能目标,并定义一个联合作战网络架构",以及赢得"技术竞争"。

俄罗斯到目前为止还没有公布关于军事人工智能的政策,但正在积极资助私营和公共部门的研究。2018年,俄罗斯举行了一次会议,提出了十项政策建议(AI: Problems and Solutions 2018),这些建议构成了其人工智能战略的非官方基础。

欧洲国家在人工智能战略方面处于类似的阶段。在英国2021年国防白皮书通过后,英国国防部(MOD)在2022年通过了《国防人工智能战略》。 该战略规定了国防部采用和利用人工智能的速度和规模,与工业界建立更强大的伙伴关系,并开展国际合作,以塑造全球人工智能的发展。 法国没有采取这样的战略,但其《国防人工智能报告》强调了将人工智能纳入其武装部队的战略优势,如分析和决策的速度,优化作战流程和后勤,以及加强对士兵的保护,并将机器学习归类为研究和开发(R&D)的主要领域。

虽然更多的国家发表了关于人工智能的分析和政策,但却没有对未来的军事战略提出见解,北约在2021年通过了其人工智能战略。该战略是整个联盟的人工智能准备和运作的基础,随后是北约的自主实施计划,包括在2022年创建数据和人工智能审查委员会。 欧盟至今没有采取类似的战略,只限于在2020年的《人工智能、机器人和相关技术的伦理问题框架》中鼓励与军事有关的人工智能领域的研究。

由于各国关于人工智能或与人工智能相关的国防战略并没有明确说明人工智能将如何影响军事战略,因此可以根据未来可能使用人工智能进行战略决策的迹象来确定各自的期望。人工智能在战争战略层面的应用实例是对核指挥、控制、通信和情报(C3I)架构的贡献;导弹和防空系统的目标获取、跟踪、制导系统和识别;网络能力;以及核和非核导弹运载系统。

对于军事战略来说,最重要的是,人工智能的应用可以帮助决策者监测战场并制定方案。事实上,可以开发人工智能来预测其他国家的行为和反应,或生成正在进行的冲突的进展模拟,包括兵棋推演模型。人工智能还可以用来评估威胁,提供风险分析,并提出行动方案,最终指导决策者采取最佳对策。 此外,人工智能可以支持武装部队的方式和手段与既定的政治和战略目标相一致,这是军事战略的一个主要功能。这种发展的一个后果是军事进程的速度和质量都会提高。虽然这将为那些拥有高性能人工智能的国家提供巨大的优势,但这也可能迫使武装部队越来越多地将军事行动的协调工作交给人工智能系统。

将人工智能用于军事战略也可能导致挑战,包括预测性人工智能需要无偏见和大量的数据。可靠的人工智能系统将需要用庞大的数据集进行训练。 此外,专家们警告说,人工智能可能会加剧威胁,改变其性质和特点,并引入新的安全威胁。 一项关于将人工智能纳入核C2系统的桌面演习表明,这种系统 "容易受到恶意操纵,从而严重降低战略稳定性"。这种脆弱性主要来自于第三方使用技术欺骗、破坏或损害C2系统所带来的风险,这表明系统安全对AI用于军事战略的重要性。

另一个重要的挑战是,人工智能可能会加快战争的速度,以至于人类将不再能够跟随上述速度的发展,最终导致人类失去控制。 这种现象被称为 "战场奇点 "或 "超战争",可能导致战略错误和事故,包括非自愿的冲突升级。即使这种风险能够得到缓解,对人工智能的更多依赖也会减少军事战略中人的因素,特别是心理学和人的判断。观察家们认为,这可能会导致 "人工智能如何解决人类提出的问题,以及人类如果拥有人工智能的速度、精度和脑力会如何解决这个问题 "之间的差距。 然而,专家们也提出,战略的制定需要对价值的理解,成本的平衡,以及对战争所处的复杂社会系统的理解,从而大大限制了人工智能在军事战略上的应用。还有一种可能是,当敌人拥有人工智能系统提供的高水平的理性预测能力时,决定性的因素将不是人工智能系统的能力,而是人类的判断,特别是关于关键和困难的选择。然而,这假定了某种程度的有意义的人类参与。

总之,主要的军事大国正在投资开发、获取和操作其武装部队的人工智能,因为人工智能有可预见的战略优势。然而,各国的战略并没有表明人工智能将如何被用于军事战略。然而,根据目前的技术发展,可以预计,人工智能将加强军事战略的制定和战略决策,特别是人工智能能够处理更多的数据,并以比人类和简单计算更高的精度和速度来理解复杂性。一个可能的结果是军事行动的加速,这可能会增加武装部队整合人工智能的压力,使人类的判断力边缘化。因此,拥有和使用人工智能本身就成为一种战略资产和目标。同时,国家对军事人工智能的投资可能成为一种战略责任,因为它可能增加破坏稳定的军备竞赛、误解和误判的风险。未来的军事战略需要考虑到这种风险。

总之,主要的军事大国正在投资开发、获取和使用人工智能,因为人工智能有可预见的战略优势。然而,各国的战略并没有表明人工智能将如何被用于军事战略。然而,根据目前的技术发展,可以预计,人工智能将加强军事战略的制定和战略决策,特别是人工智能能够处理更多的数据,并以比人类和简单计算更高的精度和速度来理解复杂性。一个可能的结果是军事行动的加速,这可能会增加武装部队整合人工智能的压力,使人类的判断力边缘化。因此,拥有和使用人工智能本身就成为一种战略资产和目标。同时,国家对军事人工智能的投资可能成为一种战略责任,因为它可能增加破坏稳定的军备竞赛、误解和误判的风险。未来的军事战略需要考虑到这种风险。

2. 条令与人工智能

军事条令进一步指导军事行动的准备和执行。军事条令可以被定义为 "从制度化的角度来看,执行军事任务和职能普遍接受的方法"。因此,它代表了'在战争和军事行动中什么是有效的制度化信念'。条令一般包含三个关键要素,即理论(什么是有效的,什么会导致胜利)、权威(条令必须被认真对待)和文化(组织及其成员是谁)。 因此,条令回答了 "军队认为自己是什么('我们是谁'),它的任务是什么('我们做什么'),如何执行任务('我们怎么做'),以及历史上如何执行任务('我们过去怎么做')"等问题。 《美国陆军条令入门》将条令描述为由基本原则、战术、技术、程序以及术语和符号组成。

鉴于条令的目的和功能,人工智能在发展军事条令方面的作用可能有限。它可能会继续由人类创建和修订。人工智能的具体作用可能仅限于监测武装部队的进程与他们的条令是否一致,以确定过去的工作,并支持对条令的质量和影响进行评估。为了有效地告知负责定义条令的军事人员,这可能需要透明和可解释的人工智能方法,否则军事人员将无法理解并做出适当的决定。

然而,条令在设定人工智能的使用和人类互动的基本原则、价值和参数方面具有重要作用。值得注意的是,军事条令是界定武装部队如何感知、理解和重视人工智能的适当手段。由于人工智能的高度自主性,武装部队可能需要明确人工智能是否被视为一种技术工具,或者说是一种代理手段。在这个意义上,条令可以定义武装部队是否将人工智能视为简单的数学、技术系统,或者说是具有认知能力的工具。条令可以定义人类在组织中的价值、地位和作用,以及使用人工智能的过程。由于军事行动和战争是人类为达到目而发起的行动,条令可以明确这意味着什么。在这种情况下,条令也可以定义人类与人工智能系统互动的价值和原则,包括人工智能需要为人类服务而不是相反。

同样,条令也是定义人工智能系统的开发、获取和使用的道德标准工具。由于军事条令是根据国际法起草的,并且通常呼吁武装部队成员尊重国际法,因此条令也可以定义人工智能系统和运营商遵守国际法的方式。条令是对人工智能和人机协作施加限制的重要工具,适用于各军种和武装部队的所有成员。这可能意味着对人工智能系统进行有意义的人类控制的一般要求,或禁止将某些功能授权给人工智能系统。

更具体地说,条令可以为人工智能融入组织流程设定原则和参数。例如,从事数据整合、优先排序的人工智能系统可能需要修订军事条令和武装部队使用和收集信息的准则。虽然仅限于观测的任务系统需要有限的条令调整,但有更多 "积极 "任务的系统可能需要更具体的指导方针,如保障措施、自主程度、与操作者的沟通以及与人类部队的互动。此外,有人认为,战术应用主要是基于规则的决策,而战役和战略决策往往是基于价值的。每个级别的首选决策过程类型以及这种过程是否应该标准化,可以在条令层面上确定。

迄今为止,各国还没有公布专门针对人工智能系统的军事条令。英国国防部关于无人驾驶飞机系统的联合条令是目前唯一公开的涉及军事系统自主性的军事条令。 然而,未来关于人工智能或与人工智能相关的军事条令可能会根据人工智能的道德使用政策来制定。 事实上,这种政策定义了相关的价值观、原则和使用军事人工智能的形式,并为其提供指导,其目的与军事条令类似。一些国家和组织最近通过了这种关于军事人工智能道德使用的政策,包括北约。

美国国防部为人工智能的发展和使用采用了五项道德原则。系统需要负责任、公平、可追踪、可靠和可治理。这些原则规定,美国防部人员负责人工智能系统的 "开发、部署和使用",因此必须表现出良好的(人类)判断能力。此外,美国防部明确确定,必须努力将人工智能运作的数据偏见降到最低。 此外,美国国防部2012年3000.09指令确定了美国对致命性自主武器系统(LAWS)的立场。它定义了致命性自主武器系统,确定了三类智能武器系统(自主、半自主和人类监督的自主系统),并为其行动设定了一般界限,以及有关人类操作员的作用和法律审查的标准。

同样,欧盟议会也通过了一份题为《人工智能:国际法的解释和应用问题》(人工智能的民事和军事使用准则),其中特别讨论了人工智能的军事应用。 该报告包含了关于欧盟成员国开发和使用军事人工智能应用的强制性准则以及一般性结论。首先,报告解释说,人工智能不能取代人类决策或人类责任。 第二,为了合法,致命性自主武器系统必须受到有意义的人类控制,要求人类必须能够干预或阻止所有人工智能系统的行动,以遵守国际人道主义法(IHL)。第三,人工智能技术及其使用必须始终遵守国际人道主义法、国际刑事法院罗马规约、欧盟条约、欧盟委员会关于人工智能的白皮书,以及包括透明度、预防、区分、非歧视、问责制和可预测性等原则。

2021年4月,法国道德委员会公布了一份关于将致命性自主武器和半自动武器纳入武装部队的意见。尽管其内容尚未得到国防部长的批准,但它代表了未来潜在的军事条令。该文件重申了人类对自主武器的致命行动保持一定程度控制的重要性,并声称法国不会开发也不会使用完全自主的武器。同样,澳大利亚发表了一份题为《国防中的道德人工智能方法》的报告,其中讨论了与军事人工智能应用有关的道德和法律考虑,但并不代表官方立场。

总之,除了评估和修订之外,人工智能不太可能对创建军事条令有实质性的作用,因为条令的作用是定义和规范军事组织问题以及与信仰、价值观和身份密切相关军事行动的各个方面。然而,正是由于这种功能,条令在确定武装部队与人工智能的基本关系方面具有重要作用。特别是,条令适合于笼统地规定人工智能将(不)用于哪些任务,人工智能将(不)如何使用,以及组织及其成员如何看待和重视人工智能。最重要的是,鉴于人工智能的特点,条令可以确定人类如何并应该与人工智能互动,以及何种组织文化应该指导这种关系。因此,条令可以为进一步的军事指令和程序设定规范性框架。各国的道德准则可以作为军事条令的基础并被纳入其中。

3.规划和人工智能

根据各自的军事条令制定的作战和行动计划,是根据现有手段实现军事目标的概念和指示。规划反映了指挥官的意图,通常包括不同的行动方案(COA)。存在各种军事计划和决策模式,但北约的综合作战计划指令(COPD)对西方各种模式进行了很好的概述和综合。 例如,加拿大武装部队遵循六个步骤,即启动、定位、概念开发、决策计划制定和计划审查。一般来说,规划包括 "规划和安排完成特定COA所需的详细任务;将任务分配给不同的部队;分配合适的地点和路线;刺激友军和敌军的战斗损失(减员);以及重新预测敌方的行动或反应。

虽然规划需要考虑到人工智能系统在军事行动中的使用,但人工智能最有可能被用于规划本身。用于军事规划或与之相关的人工智能应用是ISR系统、规划工具、地图生成机器人,以及威胁评估和威胁预测工具。 与规划有关的进一步人工智能应用可能包括大数据驱动的建模和兵棋推演。例如,美国陆军为其军事决策过程(MDMP)开发了一个程序,该程序采用 "高层次的COA"(即目标、行动和顺序的草案),并根据这个总体草案构建一个详细的COA,然后测试其可行性。这表明,人工智能可以发挥各种功能,从COA提议到解构和测试。

人工智能应用可能会对计划产生强烈影响。规划军事行动是一个缓慢而繁重的过程,它依赖于对 "结果、损耗、物资消耗和敌人反应 "的估计。它涉及到对特定情况的理解、时空分析和后勤问题。然而,有限时间和劳动力限制了可以探索的选项数量。此外,预测可以说是"作战指挥官最棘手的任务之一"。只要能提供足够数量和质量的数据,人工智能在预测的质量和速度上都可能会有出色的表现。数据分析能够进一步处理比人类计算更多的信息,最终减少"战争迷雾"。由于人工智能程序可以将行动分解为具体的任务,然后相应地分配资源,预测敌人的行动,并估计风险,因此人工智能的使用将提高决策的总体速度和准确性。增加可考虑的COA数量将进一步使规划过程得到质量上的改善。

然而,使用人工智能进行规划也有潜在的弊端。由人工智能驱动的更快规划所带来的战争速度提高,可以说会减少决策者的(再)行动时间,这可能会损害决策的质量。还有人质疑,人工智能驱动的规划是否会"导致过度关注指挥分析方面,通过书本和数字削弱了军事指挥决策的直觉、适应性和艺术性"。指挥官和其他军事人员也可能变得过渡依赖技术,使他们变得脆弱。剩下的一个挑战是产生足够的相关数据,让人工智能规划系统正常工作并产生有意义的结果。

人工智能系统将执行规划任务以及协助军事人员,但它们可能不会根据这些计划做出适当决策。事实上,有人认为,人工智能系统难以完成与指挥有关的任务,如设定目标、优先事项、规则和约束。因此,人类的判断对于这些任务仍然是必要的。人工智能宁愿执行控制任务,并最终弥补军事人员的认知偏差。然而,随着新版本的C2(部分)纳入人工智能,观察家们质疑是否清楚谁将拥有跨领域的决策权,人类在这种架构中会和应该发挥什么作用,以及技术是否准备好进行大规模开发。

当强大的人工智能系统被用于军事规划时,规划和决策之间的区别可能会变得模糊不清。与人类因军事行动的高速发展而无法正确跟踪事件进程的风险类似,将规划任务更多地委托给人工智能可能意味着指挥官和规划者不再能够理解或追溯系统如何得出结论。同样,指挥官可能会因审查众多拟议计划或COA的任务而被压垮。人工智能生成的方案也可能意味着更高的复杂程度。因此,人工智能可以被用来消化信息,只向指挥官提供最相关的内容。然而,这可能会导致对人工智能的进一步过度依赖。因此,强大的人工智能系统,或系统簇(SOS),将需要一定程度的可预测性和透明度。

总之,与人工智能的其他军事应用相比,至少在中短期内,人工智能可能会对规划产生最重大的影响。由于规划是极度时间和资源密集型的,人工智能系统可以导致速度、精度和质量的提高。这可能会对军事行动和战争产生重大影响,因为有人认为,军事竞赛的赢家是那些在观察、定位、决策和行动(OODA环)中工作最快的人。一个进一步的影响是,规划的自动化导致了军事决策的(进一步)合理化,包括人员伤亡的合理化。另一个后果是对人力的需求减少。然而,规划方面的人力需求减少并不意味着基于军事规划决策的人力判断需求减少,特别是在价值观和直觉仍然是规划的核心内容情况下。

4. 交战规则与人工智能

交战规则(ROE)用于描述军事力量部署的情况和限制。交战规则可采取多种形式,包括执行命令、部署命令、作战计划和长期指令。无论其形式如何,它们都对 "使用武力、部队的位置和态势以及使用某些特定能力 "等进行授权或限制。交战规则有共同的要素,如其功能和在作战计划中的地位,以及其他基本组成部分。交战规则通常是 "军事和政治政策要求的组合,必须受到现有的国际和国内法律参数约束"。因此,其要素和组成部分反映了军事行动、法律和政治要素。通用的交战规则和模板文件,如北约的MC362/1和Sanremo交战规则手册,可以作为交战规则起草者的基础或灵感,而这些起草者通常是军事法律顾问。虽然交战规则一般不会分发给所有低级军官,但士兵们经常会收到含有简化的、基本版本的交战规则记忆卡。

交战规则是与军事力量部署和武力使用有关的更大监管框架的一部分。因此,它们与其他类型的军事指令相互作用,特别是目标选择和战术指令。目标定位指令提供了关于目标定位的具体指示,包括对目标的限制和尽量减少附带损害。战术指令是 "针对整个部队或特定类型的单位或武器系统的命令,规定在整个行动中执行特定类型的任务或在行动中限制使用特定的武器系统。虽然交战规则不是必不可少的,但它们可以为部队及其成员提供更具体和细微的指示。

交战规则是确定如何使用人工智能以及在哪些条件下可以在特定情况下应用的适当工具。交战规则——或相关的行为规则——可以为人工智能的各种军事应用设定参数,从而将特定的政治、军事、法律和道德考虑以及来自更高组织或规范梯队的限制,如条令或国际法律义务,转化为具体指令。因此,ROE可以代表一个行动框架,被编入AI系统。例如,ROE可以确定一个地理区域或某个潜在任务的清单,系统被授权采取行动。在这些限制之外,他们将不会对处理过的信息采取行动。时间或其他限制,如预先设定的允许(不)与特定目标交战,也可以由ROE定义。同样,ROE可以预见一个系统需要标记的意外事件或问题。在这种情况下,有些人提出,人工智能可能会根据环境或其编程的任务来选择应用哪种ROE。

ROE也可以定义人类和人工智能系统在特定任务中的互动。特别是,ROE可以确定指挥官或操作员在部署期间需要如何监测和控制该系统。由于对人类控制的需求可能会根据归属于人工智能系统的具体任务以及各自的背景和行动而有所不同,人工智能的ROE可以定义某些类型的行动或阶段的自主性水平。ROE可以进一步处理或参考其他来源,如手册和指令,关于如何实施各种形式的人类控制,如直接、共享或监督控制。重要的是,ROE可以限制指挥官或操作人员的权力,这可能迫使他们在指挥系统中参考上级。这可能是军事行动中关于人机协作的ROE的一个重要作用,特别是在面对未曾预料到的情况或问题时,系统或其使用没有事先得到授权。

当人工智能被用于伤害人和物或与之有关时,如在定位目标的情况下,ROE尤其相关。特别是当考虑到人工智能不能将道德或背景评估纳入其决策过程时,在做出使用致命武力的决策时,人类的控制和判断应该是有意义的。如上所述,大多数公开的政策在原则上确立了这种监督,但很少明确其确切含义。交战规则和指令可以填补这一空白。为此,可以为人工智能系统的操作者制定与目标定位有关的行为准则,或为此类系统制定ROE模式。

事实上,虽然到今天为止还没有能够在没有人类授权的情况下攻击人类目标的自主武器,但在目标定位方面,更加自主的系统将是一个大的趋势。与目标定位有关的现有军事应用是目标识别软件,如可以检测衣服下爆炸物的Super aEgis II,以及用于目标交战的系统。美国人工智能制导的远程反舰导弹(LRASM)被宣传为能够自主地选择和攻击目标,甚至在GPS和通信受阻的环境中,如深水和潜在的外太空。另一个值得注意的事态发展是,据报道,2020年3月在利比亚部署了一架土耳其Kargu-2无人机,据称该无人机在没有人类操作员授权的情况下跟踪和攻击人类目标。它的使用可能代表了一个重要的先例,即在人类控制非常有限的情况下使用人工智能系统进行目标定位。

由于需要对ROE进行管理,人工智能可以协助主管当局协调、实施并最终确定ROE。军事、政治、法律和道德目标和参数需要由军事人员提供--至少在初始阶段。正如北约的MC362/1号文件和《圣雷莫ROE手册》所说明的那样,ROE的后续管理是一个系统的、反复的过程,包括将具体的权力赋予不同级别的指挥部,以及监测ROE的实施和遵守情况。随着时间的推移,人工智能系统可能会学会缓解ROE内部和之间的摩擦,以及为其适应性提升效率。例如,尽管国际法的实质内容可能本质上需要基于价值的判断,而这种判断不应委托给人工智能系统,但界定哪些规则需要在哪些情况下适用并不是一个过于复杂的理性过程。为了避免改变现有法律框架的实质内容,这种功能要求任何用于管理ROE的AI应用不能侵犯归属的权力。

总之,ROE可以成为一个有用的工具,以具体和实用的方式指导军事AI的使用。因此,它可以补充和执行上级的政策、法规和准则,从而使军事、政治、法律和道德目标和原则转化为具体行动。ROE的指导对于人机协作,以及定义和具体化与人工智能系统有关的人类控制和判断,在目标定位方面尤其重要。人工智能的应用可以进一步提高ROE管理的质量和效率。虽然这可能有助于协助军事人员,类似于人工智能应用于军事规划,但军事人员需要对ROE的实质进行有效监督,即谁或什么系统在什么情况下可以使用武力。然而,如果人工智能能够实现更广泛的、更细微的、更快速的交替性ROE,确保这种监督可能会变得具有挑战性。

5. 作战命令与人工智能

规划和实施军事行动的最具体的工具是命令。例如,北约和美国陆军将命令定义为 "以书面、口头或信号的方式传达上级对下级的指示"。虽然有不同类型的命令,但它们一般都很简短和具体。命令可以是口头的,也可以是图形的,还可以是叠加的。它们必须遵守法律以及上级的军事文件和文书。另一个经常使用的术语是指令,它被定义为 "指挥官下达的命令,即指挥官为实现某一特定行动而表达的意愿。

从军事参谋人员到人工智能系统的指令将采取系统初始开发的形式,有关任务目标和限制的参数编程,以及操作人员在操作期间的输入。人类和人工智能系统之间的这些互动形式可能会履行传统上归属于命令的功能。虽然人工智能系统的开发和操作,特别是机器学习,有其特殊的挑战,但测试表明,机器并不存在不服从命令的内在风险。由于在操作过程中人的输入等于人对系统的控制,如果一个系统能够根据适当的学习自主地调整其行为,这一点就特别重要,现在正在开发防止系统在没有人类输入下采取行动的保障措施。例如,美国国防部3000.09指令规定,致命性武器系统的编程方式必须防止其在未经人类事先批准的情况下选择和攻击目标,特别是在失去通信的情况下。

人工智能和操作人员之间具体的互动形式仍在继续开发。美国陆军实验室设计了一种软件,使机器人能够理解口头指示,执行任务,并进行汇报。会说话的人工智能现在也被开发出来,以实现操作员和系统之间的口头对话。这种互动使系统能够要求其操作者进行澄清,并在任务完成后提供更新,以便士兵在工作中获得最新的信息。诸如此类的应用可能使军事人员更容易与人工智能合作,并减少操作员对人工智能控制的学习曲线。然而,人工智能应用也可以支持指挥官下达命令和指令的任务。人工智能尤其可以用来提高通信系统的稳健性和容错性,这显然可以使命令的传输更加安全。

虽然人工智能系统可能不会被委托正式发布命令,但是类似的动态可能会出现。对于人工智能系统之间的互动,命令是没有必要的,因为系统只是作为数字应用网络的一部分交换信息。关于对军事人员的命令,武装部队似乎不可能接受人工智能系统向其成员发出指令。然而,由于人工智能系统可能会以越来越高的速度和复杂性提出行动建议,作为人类决策的输入,军事人员可能不会质疑这些建议,没有时间批判性地评估它们,或者根本无法理解系统如何得出结论。如果他们还是以这些建议为基础采取行动,这种对系统输入的过度依赖可能意味着系统事实上向人类发布命令。还有可能的是,通过信息技术接收指令的较低层次的操作员和士兵可能无法知道某个命令是由人类还是人工智能系统创造的。为了排除这种结果,军事条令和指令需要建立与命令有关程序的透明度。

总之,在军事行动中,正式的命令很可能与控制人工智能无关。然而,命令和指令的传统概念可以帮助分析、分类和发展人工智能系统和人类操作员之间的未来互动。在这种情况下,卡尔-冯-克劳塞维茨提出的管理方法和任务型战术(Auftragstaktik)之间的传统区别表明,人类对人工智能系统的投入,即人工智能系统的开发、编程和操作控制,可以根据对执行任务细节的程度来进行分类。鉴于人工智能的特质,我们有理由认为,当人工智能系统被赋予高水平的自主权,类似于任务型战术时,将对武装部队最有价值。同时,人类在行动中的投入将是非常精确的,起到管理作用。然而,最重要的是,这又回到了上文讨论的可以授予 AI 系统多少自主权的根本问题。

结论

人工智能有可能影响所有领域和大规模的军事行动。转变的程度主要取决于未来的技术发展。然而,这也取决于武装部队将赋予人工智能的作用和功能。从这两个因素中可以看出,人工智能与准备和开展军事行动的主要工具之间存在着动态的相互关系。一方面,人工智能的引入将影响到这些工具以及军事行动的准备和实施。另一方面,这些工具在监管和使用人工智能方面发挥着重要作用。这种相互关系是动态的,因为它很可能随着技术的发展、部队对人工智能系统的经验、组织文化和社会价值观的变化而变化。

上述内容讨论了人工智能与准备和执行军事行动的主要工具之间的相互关系,而其中核心潜在的问题是人类操作员与人工智能系统之间的相互作用。在战略方面,国家的官方文件证明,获得和运用人工智能具有战略意义。人工智能将可能支持军事战略,特别是预测和规划。战略中的人为因素可能仍然至关重要,因为战略依赖于本能和价值观,但军事人员有可能过度依赖人工智能。对于军事条令,人工智能的作用可能仅限于评估和协助修订条令。条令在决定武装部队的目的、价值观和组织文化方面的功能表明,它将在确定武装部队如何看待人工智能系统并与之互动方面发挥重要作用。

人工智能将极大地帮助军事规划,特别是基于人工智能高速和精确地处理复杂和大量数据的能力。因此,即使人工智能系统不会被委托做出决策,军事规划人员和指挥官也有可能过度依赖他们的分析和建议,尤其是在时间压力下。因此,人工智能支持决策和人工智能作出适当决策之间的界限可能会变得模糊不清。关于ROE,尽管人工智能可以支持ROE的管理,但后者主要是一个适当的工具,以具体的方式为具体的任务划定人工智能的使用。这尤其适用于人机合作和人对人工智能应用的控制。在军事命令方面,人工智能系统可能会大大协助指挥和控制,但不会被委托发布命令。然而,在实践中,可能很难区分由算法发布的命令和由指挥官发布的命令。这可能会导致人工智能支持和人工智能决策之间的混淆,类似于规划的情况。

因此,如果人类操作员和人工智能系统之间的交互,是人工智能与准备和执行军事行动的主要工具之间动态相互关系的核心潜在问题,那么无论是技术发展还是工具适应性都需要特别注意适当的人类与人工智能的交互。可以预计,技术进步将主要塑造未来的人机协作模式。军队结构、标准和流程可能会跟随技术发展而相应调整。然而,关键是要积极主动地界定基本原则、价值观和标准,而不是简单地适应技术发展,成为路径依赖或面临意想不到后果。

毕竟,关注适当的人与人工智能互动不仅是道德和法律的必要条件,也是通过引入人工智能有效提高军事行动的必要条件。因此,对人工智能和军事行动的进一步思考和研究,以及对人工智能和战略、条令、规划、ROE和命令的进一步思考和研究,应该侧重于人机互动,因为这仍然是人工智能战争最紧迫的挑战。这可能有助于在人工智能影响工具和这些工具管理军事人工智能之间找到并确定一个适当的平衡。

成为VIP会员查看完整内容
147

相关内容

万字译文《海战中实施人工智能的挑战》2023最新报告
专知会员服务
186+阅读 · 2023年5月6日
推荐!《未来战场形态》(译文),美国国家情报委员会
专知会员服务
218+阅读 · 2023年1月16日
《作战层面的人工智能》美国海军学院32页报告
专知会员服务
214+阅读 · 2022年12月17日
《军事行动自动化》【译文】2022最新报告
专知会员服务
164+阅读 · 2022年11月12日
《军事行动自动化》【译文】2022最新报告
专知
58+阅读 · 2022年11月13日
国家自然科学基金
294+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
91+阅读 · 2009年12月31日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
15+阅读 · 2018年6月23日
Arxiv
20+阅读 · 2018年1月17日
Arxiv
27+阅读 · 2017年12月6日
Arxiv
23+阅读 · 2017年3月9日
VIP会员
相关资讯
《军事行动自动化》【译文】2022最新报告
专知
58+阅读 · 2022年11月13日
相关基金
国家自然科学基金
294+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
91+阅读 · 2009年12月31日
相关论文
微信扫码咨询专知VIP会员