自主性和人工智能将通过有限的应用逐步改变战争,因为完全自主瞄准面临障碍,因此有必要就自主系统的规则进行细致的国际谈判,而不是拒绝该技术。

自主(autonomy)和自治(autonomous)如今已成为热门词汇,被用来描述军事(以及民用)领域对人工智能(AI)功能、流程和系统日益增长的利用。俄罗斯入侵乌克兰以及随之而来的高强度冲突为大量新技术和旧技术的创新使用提供了试验平台,从人工智能驱动的语音识别和态势感知软件到无处不在的商用无人机,再到商用卫星通信和图像以及 3D 打印组件的大规模使用,不一而足。

高机动性、可携带爆炸物的第一人称视角(FPV)无人机或利用计算机视觉锁定目标并将其摧毁的徘徊弹药的图像已成为头条新闻,并引发了对战争中自主革命黎明到来的焦虑,即杀手机器人将主宰战场并颠覆国际秩序。

虽然没有人能真正否认人工智能对战争及其未来演变的结构性影响,但当前关于自主性的辩论却往往使人们对其实际军事影响产生了扭曲和不准确的认识,这反过来又产生了一种不可调和的二元方法,其典型特征是要么完全拒绝、要么崇拜自主武器系统(AWS)。因此,任何有关为军事目的使用和管理自主性的政策决定和机制都有可能对利用该技术和防止其滥用无效,甚至有害。

这种不一致做法背后的一个关键原因是缺乏对自主真正含义的理解,例如经常混淆自主武器系统和自动武器系统。自动武器系统具有不同程度的自动化,可对选定类别的目标执行特定和有序的功能,而且无论如何都不能偏离其预定目的。因此,它们的行为是确定的,或者简单地说,是可预测的。例如,不同类型的地雷和装有空爆近炸引信的炮弹一旦被激活,就会在没有人为控制的情况下工作。

更广泛地说,传统的寻的弹药就属于这一类,并且已经服役多年。例如,乌克兰使用的 AGM-88 型反辐射导弹就是通过被动雷达寻的器自动探测敌方无线电发射源(通常是雷达站或防空系统)并将其锁定。重要的是,这些武器的设计目的是打击非常具体和预先确定的目标,不能偏离其最初的指令序列。

相反,预警机的特点是能够感知和适应作战环境。这意味着它们可以根据计算机程序与外部环境交互产生的行为自主调整行动路线,为给定的输入产生一系列不同的输出。这种能力来源于车载人工智能计算和传感器,可以达到不同的熟练程度,取决于算法的复杂程度、系统设计的权衡、任务的复杂程度和环境。

一般来说,有一些系统具有有限的自主能力,无需人工干预就能探测、跟踪、提示和攻击目标,不过它们的使用对象是特定的目标集,而且通常仅限于杂乱无章的环境,因此产生的行为在很大程度上是可预测的。此外,人类操作员可以修改武器的管理规则,或在出现潜在风险时激活/编码任务中止选项。因此,在瞄准过程中,人类仍处于决策循环之中。防空系统、巡航导弹、闲逛弹药或其他配备各种传感器和机载数据处理能力的平台就是最常见的例子。

然而,集成了更先进的机器学习功能后,自主系统可以自主学习和决策,包括选择目标,并根据从环境中接收到的输入不断更新可用的输出范围。因此,它们的行为是非确定性的,可能无法预测。不过,目前还没有证据表明战场上使用了 "自我学习 "的完全自主武器系统。

以色列制造的 "哈比 "反辐射闲逛弹药可在特定区域上空盘旋长达 9 个小时,以寻找雷达发射目标,并在无人监督的情况下自主攻击这些目标。然而,虽然 "哈比 "的所有运作阶段确实都是自动化的,但该系统无法学习和改变其任务规则和输出,因为它只能选择和攻击由人类操作员预先选定的特定保持区域和无线电频率范围内的目标。因此,"哈比 "的行为在本质上仍然是可预测的,因为其任务参数和管理规则是由人类定义的,尽管仍然可能存在附带损害的风险。

在最近关于致命预警系统的辩论中经常提到的另一个例子是土耳其的 "卡古-2 "战术旋转翼闲逛弹药,根据联合国的一份报告,在利比亚军阀哈利法-哈夫塔尔于 2020 年围攻的黎波里失败期间,该弹药可能被用于自主瞄准隶属于他的部队。然而,联合国专家小组无法提供任何证据来证实自主模式的说法,而 "卡古 "的制造商土耳其 STM 公司后来明确指出,该系统使用人工智能计算机视觉来识别和跟踪目标,但需要人类操作员与目标交战。在最近的一次私下讨论中,一位直接参与 "卡古 "研发的工程师向本文作者证实,该系统的程序设计并不能在没有人类监督的情况下攻击目标。

越来越多的武器系统--从无人机系统到巡航弹药、防空系统到无人地面车辆和其他系统--使用机载计算机视觉和其他人工智能功能来自动化和加速流程,而人类的自然能力对于当前(和未来)军事行动中不断加快的决策节奏和激增的数据量来说,显得过于缓慢或有限。然而,这些能力并不会使武器系统默认为完全自主。相反,它们优化了特定的子过程和任务(如导航、目标识别、态势感知等),以解决人类疲劳问题,减轻人类操作员的认知负担。除此以外,自主化通常还旨在通过限制参与行动的士兵和机组人员数量来降低人员风险。

瞄准和交战循环是其中的一项任务,但它很可能仍将局限于为特定目标集或任务而设计的平台,因为在这些平台上有大量可靠的训练数据,军事目标和民用目标之间的区别比较简单,附带损害的风险有限。这些任务包括压制敌方防空系统(SEAD)、空对空交战、战术射程内分层精确射击或打击敌方第二梯队等。飞机系统(如无人机系统、闲散弹药)是主要的自然候选者,但我们很可能会看到自主地面系统的瞄准任务,作为其在某些战术交战中火力支援作用的一部分。

与此同时,有些任务将发生重大的、结构性的自主化转变。例如,通过高保真传感器进行情报收集、监视和侦察、替身电子战、诱饵、通信节点和补给。在这些领域,最有希望取得成果的还是使用具有蜂群能力的网络化和多样化的自主飞机,不过预计在海上和陆地领域也会取得进展。

因此,AWS 对战争的预期变革影响将比通常设想的要缓慢和零散,因为自主性主要是作为一种促进因素,其集成通常仅限于子系统或特定功能,而不是整个军事企业。有几个原因需要考虑。

首先,物理学仍然重要。AWS 依靠边缘的大量计算能力和工作存储器,通常需要更高的电池容量,特别是在长距离应用中。这就意味着要在尺寸、航程、速度、续航时间、有效载荷以及最终的成本之间进行明显的权衡,在可预见的未来不可避免地会对作战产生影响。例如,抗干扰超宽带连接技术的使用可以降低能耗,但却有固有的范围限制。就机载系统而言,使用自主 "母舰 "从中间集结区释放托盘化的弹群和空射效应,有助于扩大弹群和空射效应的作战范围,但这些大型母舰虽然前景广阔,但仍容易遭到敌方拦截和反制,很难成为唯一的解决方案。

其次,即使技术已经成熟,但如果不将其适当融入强大的作战概念(CONEMPs)和行动概念(CONOPs),AWS 也只能为作战人员提供微不足道的优势。然而,CONEMPs 和 CONOPs 的建立并非一朝一夕之事,在北约等多国环境中,由于互操作性问题、异质能力和培训、人机界面挑战以及国家层面对 AWS 的不同处理方法,CONEMPs 和 CONOPs 的建立变得更具挑战性。此外,每个军事部门都可能以自己的方式看待自主性,这就进一步增加了复杂性。

正如乌克兰战争所表明的,新技术的有效整合与技术本身同样重要。

第三,如果不仔细权衡意外升级的风险和可能带来的灾难性代价,就认为各国有意愿(和兴趣)部署完全自主的武器系统(即自学平台),至少可以说是草率的。

在此背景下,有必要提出一些警告。

显然,上述对 AWS 的渐进和不定期采用并不能排除与这些平台相关的危险,从道德和法律考虑到附带损害问题。然而,似乎可以公平地说,它们可能被限制用于直接与目标交战的目的,这在一定程度上减轻了这些风险,削弱了支持彻底禁止预警系统的一些论点。

遗憾的是,缺乏国际公认的自主定义是准确评估预警系统影响和规范其使用的一大障碍。人工智能发展的不稳定性,以及它对 "有意义的人类控制 "的概念和实用性的影响,进一步加剧了这一问题。如果 AWS 依赖于操作员可以获得的相同信息、参数和严格的交战规则,那么 "人类脱离环路 "本身并不一定是个问题,前提是它不能推翻这些信息、参数和规则。正如专家 Jovana Davidovic 所说,"任何道德上的差异都源于经验事实,即什么方法(在安全和避免附带损害方面)更有效,而不是操作员与最终决定的距离有多远"。

在另一篇发人深省的文章中,学者 Andree-Anne Melancon 认为,"发展自动化武器的更根本问题不在于技术或人工智能。相反,问题源于选择目标的方式"。或许,这场辩论首先应该讨论的是自主系统编程的基本流程和规则(如目标识别等),而不是技术本身。

与此同时,关于在完美计划和实施的行动中无缝使用和利用自主系统和人工智能的描述将被现实证明是错误的。人工智能可以帮助人们看穿战争迷雾,但不会彻底消除迷雾。例如,目前最好的物体检测模型在最流行的基准测试中平均精度仅为 65%。虽然这些表述的首要目标是营销,但由此产生的对人工智能优点的偏爱和对其局限性的忽视,都可能不利于就 AWS 问题展开建设性的、平衡的辩论。但是,基于可怕或不准确的观点而对 AWS(或其他人工智能军事应用)嗤之以鼻的评估也于事无补。

联合国大会最近通过了有史以来第一份关于 AWS 的决议,这表明各国确实认为有必要采取行动规范 AWS,并应鼓励人们对这项技术采取不那么军国主义、但也更加清醒的态度。

作者:

费德里科-博萨里是欧洲政策分析中心(CEPA)跨大西洋防务与安全项目的莱昂纳多研究员。他还是北约 2030全球研究员和欧洲对外关系委员会 (ECFR) 的访问学者。他的主要研究兴趣包括安全与国防动态、跨大西洋安全关系以及新技术对战争的影响。

成为VIP会员查看完整内容
29

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
美国国防部采办中的ChatGPT:高级语言模型的机遇和风险
专知会员服务
37+阅读 · 2023年12月1日
信任机器智能:军事行动中的人工智能与人机协作
专知会员服务
65+阅读 · 2023年10月29日
《探讨未来军事技术的可能性》美国陆军2022最新52页报告
专知会员服务
90+阅读 · 2022年12月28日
《作战层面的人工智能》美国海军学院32页报告
专知会员服务
214+阅读 · 2022年12月17日
人工智能: 国防部应改进战略、库存流程和协作指导
专知会员服务
39+阅读 · 2022年4月11日
可信机器学习的公平性综述
专知会员服务
67+阅读 · 2021年2月23日
深度学习与医学图像分析
人工智能前沿讲习班
40+阅读 · 2019年6月8日
最新人机对话系统简略综述
专知
26+阅读 · 2018年3月10日
国家自然科学基金
34+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
47+阅读 · 2011年12月31日
A Survey of Large Language Models
Arxiv
407+阅读 · 2023年3月31日
Arxiv
21+阅读 · 2023年3月17日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关基金
国家自然科学基金
34+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
47+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员