自动化使系统能够执行通常需要人类投入的任务。英国政府认为自动化对保持军事优势至关重要。本论文讨论了当前和未来全球自动化的应用,以及它对军事组织和冲突的影响。同时还研究了技术、法律和道德方面的挑战。

关键要点

  • 在军事行动中部署自动化技术可以提高有效性并减少人员的风险。
  • 在英国和国际上,自动化正被用于情报收集、数据分析和武器系统。
  • 英国政府正在开发自动化系统;技术挑战包括数据管理、网络安全以及系统测试和评估。
  • 军事自动化的法律和道德影响受到高度争议,特别是在武器系统和目标选择方面。

背景

许多军事系统都有自动化的特点,包括执行物理任务的机器人系统,以及完全基于软件的系统,用于数据分析等任务。自动化可以提高某些现有军事任务的效率和效力,并可以减轻人员的 "枯燥、肮脏和危险 "的活动。 许多专家认为,自动化和自主性是与系统的人类监督水平有关的,尽管对一些系统的定位存在争议,而且对系统是否应被描述为 "自动化 "或 "自主 "可能存在分歧。英国防部在其 "自主性谱系框架 "中概述了5个广泛的自主性水平,从 "人类操作 "到 "高度自主"。一个系统可能在不同的情况下有不同的操作模式,需要不同程度的人力投入,而且只有某些功能是自动化的。方框1概述了本公告中使用的定义。

方框1:该领域的术语并不一致,关键术语有时可以互换使用。

  • 自动化系统。自动系统是指在人类设定的参数范围内,被指示自动执行一组特定的任务或一系列的任务。这可能包括基本或重复的任务。

  • 自主系统。国防科学与技术实验室(Dstl)将自主系统定义为能够表现出自主性的系统。自主性没有公认的定义,但Dstl将其定义为 "系统利用人工智能通过自己的决定来决定自己的行动路线的特点"。自主系统可以对没有预先编程的情况作出反应。

  • 无人驾驶车辆。朝着更高水平的自主性发展,使得 "无人驾驶 "的车辆得以开发,车上没有飞行员或司机。有些是通过远程控制进行操作,有些则包括不同程度的自主性。最成熟的无人驾驶军事系统是无人驾驶航空器,或称 "无人机",其用途十分广泛。

  • 人工智能。人工智能没有普遍认同的定义,但它通常是指一套广泛的计算技术,可以执行通常需要人类智慧的任务(POSTnote 637)。人工智能是实现更高水平的自主性的一项技术。

  • 机器学习:(ML,POSTnote 633)是人工智能的一个分支,是具有自主能力的技术的最新进展的基础。

英国政府已经认识到自主系统和人工智能(AI,方框1)的军事优势以及它们在未来国防中可能发挥的不可或缺的作用。在其2021年综合审查和2020年综合作战概念中,它表示致力于拥抱新的和新兴的技术,包括自主系统和人工智能。2022年6月,英国防部发布了《国防人工智能战略》,提出了采用和利用人工智能的计划:自动化将是一个关键应用。在全球范围内,英国、美国、中国和以色列拥有一些最先进的自主和基于AI的军事能力。方框2中给出了英国和全球活动的概述。

方框2:英国和全球活动

  • 英国 英国政府已表明其投资、开发和部署用于陆、海、空和网络领域军事应用的自主和人工智能系统的雄心。最近的投资项目包括NELSON项目,该项目旨在将数据科学整合到海军行动中;以及未来战斗航空系统,该系统将为皇家空军提供一个有人员、无人员和自主系统的组合。在2021年综合审查发表后,政府成立了国防人工智能中心(DAIC),以协调英国的人工智能国防技术的发展。这包括促进与学术界和工业界的合作,并在纽卡斯尔大学和埃克塞特大学以及艾伦-图灵研究所建立研究中心。

  • 全球背景 对自主军事技术的投资有一个全球性的趋势:25个北约国家已经在其军队中使用一些人工智能和自主系统。有限的公开信息给评估军队的自主能力带来了困难,但已知拥有先进系统的国家包括。

    • 美国。美国国防部2021年预算拨款17亿美元用于自主研发,以及20亿美元用于人工智能计划。
    • 以色列。国有的以色列航空航天工业公司生产先进的自主系统,包括无人驾驶的空中和陆地车辆以及防空系统。
    • 中国。据估计,中国在国防人工智能方面的支出与美国类似。 分析师认为,这包括对情报分析和自主车辆的人工智能的投资。

俄罗斯和韩国也在大力投资于这些技术。在俄罗斯,机器人技术是最近成立的高级研究基金会的一个重点,该基金会2021年的预算为6300万美元。

应用

自主系统可以被设计成具有多种能力,并可用于一系列的应用。本节概述了正在使用或开发的军事应用系统,包括情报、监视和侦察、数据分析和武器系统。

情报、监视和侦察

自动化正越来越多地被应用于情报、监视和侦察(ISR),通常使用无人驾驶的车辆(方框1)。无人驾驶的陆上、空中和海上车辆配备了传感器,可以获得数据,如音频、视频、热图像和雷达信号,并将其反馈给人类操作员。一些系统可以自主导航,或自主识别和跟踪潜在的攻击目标。英国有几架ISR无人机在服役,还有一些正在试用中。这些无人机的范围从非常小的 "迷你 "无人机(其重量与智能手机相似)到可以飞行数千英里的大型固定翼系统。英国正在试用的一个系统是一个被称为 "幽灵 "无人机的迷你直升机,它可以自主飞行,并使用图像分析算法来识别和跟踪目标。无人驾驶的水下航行器被用于包括地雷和潜艇探测的应用,使用船上的声纳进行自主导航。这些车辆还可能配备了一种技术,使其能够解除地雷。

数据分析

许多军事系统收集了大量的数据,这些数据需要分析以支持操作和决策。人工智能可用于分析非常大的数据集,并分辨出人类分析员可能无法观察到的模式。这可能会越来越多地应用于实地,为战术决策提供信息,例如,提供有关周围环境的信息,识别目标,或预测敌人的行动。英国军队在2021年爱沙尼亚的 "春季风暴 "演习中部署了人工智能以提高态势感知。美国的Maven项目旨在利用人工智能改善图像和视频片段的分析,英国也有一个类似的项目,利用人工智能支持卫星图像分析。

武器系统

以自动化为特征的武器系统已被开发用于防御和进攻。这些系统包括从自动响应外部输入的系统到更复杂的基于人工智能的系统。

  • 防御系统。自动防空系统可以识别和应对来袭的空中威胁,其反应时间比人类操作员更快。这种系统已经使用了20多年;一份报告估计有89个国家在使用这种系统。目前使用的系统可以从海上或陆地发射弹药,用于应对来袭的导弹或飞机。英国使用Phalanx CIWS防空系统。虽然没有在全球范围内广泛采用,但以色列将固定的无机组人员火炮系统用于边境防御,并在韩国进行了试验。这些系统能够自动瞄准并向接近的人或车辆开火。

  • 导向导弹。正在使用的进攻性导弹能够在飞行中改变其路径,以达到目标,而不需要人类的输入。英国的双模式 "硫磺石"(DMB)导弹于2009年首次在阿富汗作战中使用,它可以预先设定搜索特定区域,利用传感器数据识别、跟踪和打击车辆。

  • 用于武器投送的无人平台。为武器投送而设计的无人空中、海上和陆地运载工具可以以高度的自主性运行。这些系统可以自主地搜索、识别和跟踪目标。大多数发展都是在空中领域。英国唯一能够自主飞行的武装无人机是MQ-9 "收割者",但有几个正在开发中。英国防部还在开发 "蜂群 "无人机(方框3)。虽然存在技术能力,但无人驾驶的进攻性武器并不用于在没有人类授权的情况下做出射击决定;报告的例外情况很少,而且有争议。 自主系统在识别目标和作出射击决定方面的作用,是广泛的伦理辩论的主题(见下文)。

方框3:无人机蜂群

无人机蜂群是指部署多个能够相互沟通和协调的无人机和人员,以实现一个目标。在军事环境中,蜂群可能被用来监视一个地区,传递信息,或攻击目标。2020年,英国皇家空军试验了一个由一名操作员控制的20架无人机群,作为Dstl的 "许多无人机做轻活 "项目的一部分。蜂群技术还没有广泛部署。据报道,以色列国防军于2021年首次在战斗中使用无人机蜂群。

影响

自动化技术和人工智能的扩散将对英国军队产生各种影响,包括与成本和军事人员的角色和技能要求有关的影响。对全球和平与稳定也可能有影响。

财务影响

一些专家表示,从长远来看,军事自动化系统和人工智能可能会通过提高效率和减少对人员的需求来降低成本。然而,估计成本影响是具有挑战性的。开发成本可能很高,而且回报也不确定。提高自动化和人工智能方面的专业知识可能需要从提供高薪的行业中招聘。军队可能不得不提高工资以进行竞争,英国防部将此称为 "人工智能工资溢价"。

军事人员的作用和技能

自动化可能会减少从事危险或重复性任务的军事人员数量。然而,一些军事任务或流程,如高层战略制定,不太适合自动化。在许多领域,自主系统预计将发挥对人类的支持功能,或在 "人机团队 "中与人类合作。专家们强调,工作人员必须能够信任与他们合作的系统。一些角色的性质也可能会受到自动化的影响,所需的技能也是如此。例如,对具有相关技术知识的自主系统开发者和操作者的需求可能会增加。英国防部已经强调需要提高整个军队对人工智能的理解,并承诺开发一个 "人工智能技能框架",以确定未来国防的技能要求。一些利益相关者对自动化对军事人员福祉的影响表示担忧,因为它可能会限制他们的个人自主权或破坏他们的身份和文化感。

人员对自动化的态度:

关于军事人员对自动化的态度的研究是有限的。2019年对197名英国防部人员的研究发现,34%的人对武装部队使用可以使用ML做出自己的决定的机器人有普遍积极的看法,37%的人有普遍消极的态度。有报道称,人们对某些自主武器系统缺乏信任,包括在2020年对澳大利亚军事人员的调查中。在这项研究中,30%的受访者说他们不愿意与 "潜在的致命机器人 "一起部署,这些机器人在没有人类直接监督的情况下决定如何在预定的区域使用武力。安全和目标识别的准确性被认为是两个最大的风险。有证据表明,信任程度取决于文化和熟悉程度。

升级和扩散

一些专家提出了这样的担忧:在武器系统中越来越多地使用自主权,有可能使冲突升级,因为它使人类离开了战场,减少了使用武力的犹豫性。兰德公司最近的一份战争游戏报告(上演了一个涉及美国、中国、日本、韩国和朝鲜的冲突场景)发现,广泛的人工智能和自主系统可能导致无意中的冲突升级和危机不稳定。这部分是由于人工智能支持的决策速度提高了。升级也可能是由自动系统的非预期行为造成的。

还有人担心,由于自动化和基于人工智能的技术变得更便宜和更丰富,非国家行为者更容易获得这种技术。这些团体也可能获得廉价的商业无人机,并使用开放源码的人工智能对其进行改造,以创建 "自制 "武器系统。关于非国家行为者使用自主系统的报告是有限的和有争议的。然而,非国家团体确实使用了武装无人机,而且人们担心人工智能会使这种系统更加有效。

技术挑战

正在进行的包括机器人和人工智能在内的技术研究,主要是由商业驱动的,预计将增加自动化系统的应用范围和采用程度。该领域的一些关键技术挑战概述如下。一个更普遍的挑战是,相对于数字技术的快速发展,军事技术的发展速度缓慢,有可能在部署前或部署后不久组件就会过时。

数据传输

无人驾驶的车辆和机器人经常需要向人员传输数据或从人员那里接收数据。这可以让人类监督和指导它们的运作或接收它们收集的数据。在某些情况下,系统也可能需要相互通信,如在无人机群中(方框3)。军方通常使用无线电波在陆地上传输数据,其带宽(频率的可用性)可能有限。在传输大量数据,如高分辨率图像时,这可能是个问题。5G技术(POSTbrief 32)可能会促进野外更有效的无线通信。系统之间的无线电通信可以被检测到,提醒对手注意秘密行动。对手也可能试图阻止或破坏系统的通信数据传输。目前正在研究如何最大限度地减少所需的数据传输和优化数据传输的方法。更多的 "板载 "或 "边缘 "处理(POSTnote 631)可以减少传输数据的需要。然而,减少通信需要系统在没有监控的情况下表现得像预期的那样。

数据处理

具有更高水平的自主性的更复杂的系统通常在运行时在船上进行更多的数据处理和分析。这要求系统有足够的计算能力。一般来说,一个系统能做多少嵌入式数据处理是有限制的,因为硬件会占用空间并需要额外的电力来运行。这可能会限制需要电池供电运行的系统的敏捷性和范围。然而,人工智能的进步也可能使系统更有效地运行,减少计算要求。由于未来软件、算法和计算机芯片技术的进步,计算机的处理能力也有望提高。

训练数据

创建和整理与军事应用相关的大型数据集,对生产可靠的人工智能自主系统非常重要。机器学习(ML,方框1)依赖于大型数据集来训练其基础算法,这些数据可以从现实世界中收集,或者在某些情况下,使用模拟生成。一般来说,用于训练ML系统的数据越有代表性、越准确、越完整,它就越有可能按要求发挥作用。准备训练数据(分类并确保其格式一致)通常需要手动完成,并且是资源密集型的。

数据隐私:

一些人工智能系统可能会在民用数据上进行训练。人们普遍认为,如果使用与个人有关的数据,他们的隐私必须得到保护。这可以通过对个人数据进行匿名化处理或只分享经过训练的人工智能系统来实现。

网络安全

由计算机软件支撑的系统数量的增加增加了网络攻击的机会。网络攻击者可能试图控制一个系统,破坏其运作,或收集机密信息。基于人工智能的系统也可以通过篡改用于开发这些系统的数据而遭到破坏。英国防部在2016年成立了网络安全行动中心,专注于网络防御。在英国,2021年成立的国防人工智能中心,有助于促进行业伙伴或其他合作者对高度机密数据的访问。

测试和评估

重要的是,军事系统要可靠、安全地运行,并符合法律和法规的规定。人工智能和自动化给传统软件系统带来了不同的测试和保证挑战。 进一步的挑战来自于ML的形式,它可能不可能完全理解输出是如何产生的(POSTnote 633)。人工智能软件可能还需要持续监测和维护。利益相关者已经强调缺乏适合的测试工具和流程,并正在开发新的工具和指南。英国政府的国防人工智能战略致力于建立创新的测试、保证、认证和监管方法。

伦理、政策和立法

目前的准则和立法

目前还没有专门针对将自动化或人工智能用于军事应用的立法。虽然它们在战争中的使用受现有的国际人道主义法的约束,但这与新技术的关系是有争议的。在国家和国际层面上有许多关于人工智能更普遍使用的准则,这些准则可以适用于自动化系统。然而,2021年数据伦理与创新中心(CDEI)的人工智能晴雨表研究发现,工业界很难将一般的法规适应于特定的环境。2022年,英国防部与CDEI合作发布了在国防中使用人工智能的道德原则。

责任感

一些利益相关者强调,如果自主系统的行为不合法或不符合预期,那么它的责任是不明确的。这可能导致系统及其决定与设计或操作它的人类之间出现 "责任差距",使法律和道德责任变得复杂。英国防部的原则说,在人工智能系统的整个设计和实施过程中,应该有明确的责任。国防人工智能战略为供应商设定了类似的期望。

围绕自主武器系统的辩论

这一领域的大部分法律和道德辩论都集中在武器系统上。然而,某些非武装系统(例如,基于软件的决策支持工具)可能在识别目标方面发挥关键作用,因此提出了许多与那些同时部署武器的系统相同的道德问题。

国际上对 "致命性自主武器系统"(LAWS)的使用存在着具体的争论。这个术语没有普遍认同的定义,它被用来指代具有不同自主能力的广泛的武器。关于使用致命性自主武器系统的报告存在很大争议,例如,由于系统使用模式的不确定性。 联合国《特定常规武器公约》(CCW)自2014年以来一直在讨论致命性自主武器系统的可能立法。它在2019年发布了指导原则,但这些原则没有约束力,也没有达成进一步的共识。虽然大多数参加《特定常规武器公约》的国家支持对致命性自主武器进行新的监管,但包括英国、美国和俄罗斯在内的其他国家认为,现有的国际人道主义法已经足够。根据运动组织 "阻止杀手机器人"(SKR)的说法,83个国家支持关于自主武器系统的具有法律约束力的文书,12个国家不支持。

许多利益相关者认为,必须保持人类对武器和瞄准系统的某种形式的控制,才能在法律和道德上被接受。某些组织,如SKR,呼吁禁止不能由 "有意义的人类控制 "的自主武器系统,并禁止所有以人类为目标的系统。他们还呼吁制定法规,确保在实践中保持足够的人为控制。在其2022年国防人工智能战略中,英国政府表示,识别、选择和攻击目标的武器必须有 "适当的人类参与"。作为回应,一些呼吁监管的非政府组织表示,需要更加明确如何评估或理解 "适当的人类参与"。包括英国政府在内的利益相关者建议的维持人类控制的潜在措施包括限制部署的时间和地理范围。被认为会破坏人类控制的因素包括人类做出决定的有限时间和 "自动化偏见",即个人可能会过度依赖自动化系统,而不太可能考虑其他信息。

公众对该技术的态度

大多数关于军事自动化的公众意见调查都集中在自主武器系统上。SKR委托对28个国家的19,000人进行了民意调查。62%的受访者反对使用致命性武器系统;这一数字在英国是56%。关于公众对人工智能、数据和更广泛的自动化的态度的研究发现,公众关注的主要问题包括数据安全、隐私和失业。然而,公众的观点会因系统的功能和使用环境的不同而有很大差异。

成为VIP会员查看完整内容
156

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《无人海事系统》入门读物,联合国裁军研究所10页报告
专知会员服务
31+阅读 · 2022年10月30日
国家自然科学基金
17+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
5+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
88+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
12+阅读 · 2020年12月10日
VIP会员
相关VIP内容
《无人海事系统》入门读物,联合国裁军研究所10页报告
专知会员服务
31+阅读 · 2022年10月30日
相关资讯
相关基金
国家自然科学基金
17+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
5+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
88+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员