大数据、人工智能和机器学习代表了当今最前沿的一些技术,并可能成为未来几十年甚至更久的主导技术。大多数专家都认为,人工智能的发展将比1879年电力发明以来的任何技术都更能改变我们的生活,这一点通常被称为人工智能或简称AI。
可悲的是,在人工智能和无人系统(或用老话说的 "机器人")的编队协作问题上,热度远远高于光度,其中大部分是由大众媒体推动的。普通大众被不断喂食关于 "坏"机器人的书籍和电影(例如《世界大战》、《终结者》),甚至是关于 "好"机器人叛变的书籍和电影(例如《2001:太空漫游》和《机器之家》),普遍担心今天的机器人--使用人工智能的无人驾驶机器--将以我们在2021年只能模糊感知的方式来主宰我们的生活。
当涉及到人工智能的军事应用时,这些担忧就会变得异常强烈。许多人表示担心,美国军方可能会失去对其无人系统的控制,特别是其武装的无人系统。这些担心已经表现在许多方面,最明显的是谷歌停止了美国国防部的算法战争跨功能团队的工作,也就是所谓的Maven项目。这尤其令人担忧,因为Maven项目与武装无人系统毫无关系。
在许多国家,关于人工智能的军事用途的对话已经变得尖锐,并阻碍了人工智能在美国军事武器系统中的有效插入。当人工智能、自主性、无人驾驶和武装在同一个句子中使用时,这些担忧被放大了。同时,美国的同行竞争者,中国和俄罗斯,认识到了人工智能在控制他们自己的社会以及其他社会方面的价值,并且正在投资数千亿于人工智能,其中大部分是为了给他们的军队提供一个与美国军队不对称的优势。
此外,也许更重要的是,由于今天的战争速度往往超过了人脑做出正确决定的能力,美国军队需要大数据、人工智能和机器学习,以使其作战人员在战斗中获得优势,特别是在决策领域。美国军队--以及其他国家的军队--曾发生过决策者在正确的时间没有得到正确的信息,来支持时间紧迫的作战决策而导致悲剧发生的一些情况。
重要的是要注意到,做出这些次优决策的军事人员在手头的工具下做了他们能做的最好工作。发生的情况是,战争的速度往往超过了人脑做出正确决策的能力。事实上,正如美国陆军研究实验室首席科学家亚历山大-科特博士在一次指挥和控制会议上所说:"人类的认知带宽将成为战场上最严重的制约因素。"
直到最近,将强化决策提高到新水平的技术根本不存在。今天,它确实存在,而且利用大数据、人工智能和机器学习能够为作战人员提供的东西,很可能导致海战的下一个突破,特别是在决策领域。海军太平洋信息战系统中心与海军研发界、工业界和学术界的合作伙伴一起,正在领导各种努力,以确保美国作战人员有能力以更少的人和更少的错误做出更好的决策。
21世纪在世界秩序、地缘政治和战争方式方面迎来了巨大的变化。正如美国国家情报委员会的顶点出版物《全球趋势:进步的悖论》所说:
《全球趋势:进步的悖论》指出,未来五年,国家内部和国家之间的紧张局势将不断加剧。全球增长将放缓,就像日益复杂的全球挑战即将到来一样。范围越来越广的国家、组织和有能力的个人将塑造地缘政治。无论好坏,新出现的全球格局正在结束冷战后美国占主导地位的时代。以公众期望的方式进行国际合作和治理将变得更加困难。Covid-19危机放大了这些困难,暴露了国际合作的极限。拥有否决权的人处处威胁要阻止合作,而信息回音室效应将强化无数相互竞争的现实,破坏对世界事件的共同理解。因此,未来几年发生冲突的几率将比近期任何时候都要高。
这一评估在美国国家情报局局长的《世界范围内的威胁评估》中得到了再次确认,其中部分内容指出。"随着大国和地区侵略者利用复杂的全球趋势,同时适应美国外交政策的新优先事项,各国之间的竞争将在未来几年内增加。国家间冲突的风险,包括大国之间的冲突,比冷战结束以来的任何时候都要高。"虽然现在评估Covid-19大流行病的全面影响还为时过早,但初步迹象表明,这场危机加剧了美国与其同行竞争对手之间的紧张关系。
2021年,美国仍然在世界各地参与活动。国家安全战略涉及对美国安全和繁荣的广泛威胁。这些威胁包括从中国和俄罗斯这样的高端同行竞争对手,到朝鲜和伊朗,以及以伊黎伊斯兰国为代表的恐怖主义的持续威胁。在里根国防论坛上的国家安全战略预演中,当时的国家安全顾问麦克马斯特将军强调了这些威胁,并再次确认了前政府的 "4+1战略",将俄罗斯、中国、伊朗和朝鲜这四个国家以及 "+1"--恐怖分子,尤其是ISIL--列为美国今天必须应对的紧迫威胁。
国际安全范式的这一巨大变化的程度怎么强调都不过分。引起这一新焦点的原因并不神秘,那就是与中国和俄罗斯的大国竞争。事实上,《国家安全战略》提出了保护美国人民和维护他们的生活方式、促进繁荣、通过实力维护和平以及提升美国在世界上的影响力的战略愿景。值得注意的是,这个新的、发达的战略代表了与以前版本的巨大转变,以前的版本侧重于安全、繁荣和国际秩序这三大支柱,都是一些没有什么具体内容的理想。这个新的国家安全战略强化了美国对中国和俄罗斯的立场,抛弃了 "朋友 "和 "伙伴 "的字眼,取而代之的是 "修正主义国家 "和 "竞争对手"。
《国防战略》进一步发展了《国家安全战略》中提出的主题,更直接地处理了对美国安全和繁荣的威胁。这份文件指出,美国面临的核心挑战是被《国家安全战略》归类为修正主义大国的长期战略竞争的重新出现。它指出,越来越明显的是,中国和俄罗斯想要塑造一个符合其“独裁”模式的世界--获得对其他国家的经济、外交和安全决定的否决权。《国防战略》发表后不久,美国防部高级官员从词典中删除了 "4+1战略 "一词,现在以 "2+3战略 "的方式谈论,以承认俄罗斯和中国构成的生存威胁。美国防部领导人已经公开表示,"中国是第一,俄罗斯是第二"。此外,他们还说,俄罗斯仍然是我们最大的近期安全挑战,而中国是我们最大的长期挑战。
这份国防战略继续说:"与中国和俄罗斯的长期战略竞争是国防部的主要优先事项,需要增加和持续的投资,因为它们今天对美国的安全和繁荣构成了巨大的威胁,而且这些威胁在未来可能会增加。"
国会研究服务处的一份文件《向国会提交的关于大国竞争和国防的报告》中描述了这种急剧变化的战略格局。以下是这份报告对今天的战略环境的描述:
国际关系的后冷战时代--始于20世纪90年代初,有时被称为单极时刻(美国是单极大国)--在2006-2008年显示出消退的初步迹象,到2014年已经让位于与中国和俄罗斯重新开始的大国竞争以及这两个国家和其他国家对二战以来美国主导的国际秩序要素的挑战,这是一种根本性的不同情况。
在奥巴马政府2015年6月的《国家军事战略》中,大国竞争的恢复与其他考虑因素一起被承认,并被置于特朗普政府2017年12月的《国家安全战略》(NSS)和2018年1月的《国防战略》(NDS)的中心位置。2017年12月的NSS和2018年1月的NDS正式调整了美国国家安全战略和美国国防战略的方向,明确将主要精力放在与中国和俄罗斯的大国竞争上。国防部(DOD)官员随后将对抗中国的军事能力确定为国防部的首要任务。
国会研究处随后的一份报告《国防初探:地理、战略和部队设计》强调了将美国的战略重点转向这两个欧亚大国的重要性,指出:
以下是《纽约时报》的一篇社论如何看待美国面临的长期挑战问题。"冠状病毒可能几乎改变了一切,但它并没有改变这一点。美国面临的全球挑战还在继续,美国的对手在测试极限,看看他们能在最小的反击下取得什么成果。"
虽然通常留给更高级别的文件,但美国海军的《维持海上优势的设计2.0》也强调了这种同行(而且明显不再是 "近邻")竞争的首要重要性,指出:"中国和俄罗斯正在部署其国家力量的所有要素以实现其全球“野心”......中国和俄罗斯试图以对自己更有利的条件重新定义整个国际体系的规范"。
迈克尔-吉尔德伊上将在就任美国海军作战部长后的指示中,强调了这种对高端作战的需求,以及与美国海军陆战队整合的重要性,在他的FRAGO 01/2019中指出:"我们将确保作战能力和致命部队的整体性,使分布式海上作战、远征先进基地作战和有争议环境中的濒海作战效益最大化。"
虽然是联合部队集体为国家作战,但海军部队在应对大国竞争方面的重要性在一份题为《海上安全和大国竞争》的报告中得到强调。《维护以美国为首的国际秩序》,其中部分内容指出:
这并不是说海军比美国其他军种更重要,也不是说像一些海军专家所建议的那样,海军应该在有限的国防预算中获得更大的份额,而是说大国竞争的前线是,而且可能继续是广阔的欧亚大陆的沿海地区。南中国海的持续摩擦只是大国竞争中的一个争论点,还有很多其他争论点。
美国在2020年12月发布的新海洋战略《海上优势》毫不含糊地将海上事务置于这一大国竞争的最前沿,其中部分内容指出:
自我们上次在2015年发布《21世纪海权合作战略》以来,安全环境发生了巨大的变化。一些国家正在争夺关键地区的权力平衡,并试图破坏现有的世界秩序。我们的对手的重大技术发展和积极的军事现代化正在侵蚀我们的军事优势。远程精确导弹的扩散意味着美国不能再假定在冲突时可以不受限制地进入世界海洋。
自21世纪初以来,我们的三个海务部门一直在警惕地注视着中国日益增长的海军力量和俄罗斯联邦日益增长的侵略行为。我们部署在全球的海军部队每天都与中国和俄罗斯的军舰和飞机互动。我们亲眼目睹了他们越来越复杂和越来越有侵略性的行为。中国代表着最紧迫的、长期的战略威胁。
《国防战略》高度关注技术,并指出,如果不利用先进的技术来支持我们的作战人员,美国将无法实现它所寻求的安全和繁荣,并指出:
安全环境也受到快速的技术进步和战争性质变化的影响。开发新技术的动力是无情的,以较低的准入门槛扩大到更多的行为者,并以加速的速度发展。新技术包括先进的计算、大数据分析、人工智能、自主性、机器人、定向能、高超音速和生物技术--正是这些技术确保我们能够打赢未来的战争。
新的商业技术将改变社会,并最终改变战争的性质。许多技术发展将来自于商业部门,这意味着国家竞争者和非国家行为者也将有机会获得这些技术,这一事实有可能侵蚀我们国家已经习惯的传统的超强对抗。保持技术优势将需要改变行业文化、投资来源和保护整个国家安全创新基地。
《全球趋势》中强调的发展。《全球趋势:进步的悖论》以及《国家安全战略》和《国防战略》中强调的发展,在美国军方的未来展望出版物《2035年联合行动环境》(又称JOE)中得到了呼应。《联合作战环境》的副标题是 "有争议和无序世界中的联合部队",它着眼于20年后,研究未来将如何影响作战和联合部队。《联合作战环境》强调,即使在伊拉克和阿富汗的冲突逐渐结束时,美国军队在本十年的剩余时间和以后将面临越来越大的压力。
《2035年联合行动环境》有一节专门讨论技术。报告的作者解释了这样处理技术问题的理由:
联合部队将面临一个主要由加速的技术变革定义的未来技术环境。在过去的20年里,美国对高技术战争的做法鼓励了对手发展非对称、非常规、不规则和混合的方法。敌人将继续创新,应用不同的高低技术组合来挫败美国的利益和军事力量。
到2035年,美国将面对一系列寻求在一些关键领域实现技术平等的竞争对手。累积的结果将是这样一种情况,用前国防部副部长罗伯特-沃克的话说,"我们的部队面临着非常现实的可能性,即到达未来的一个战区,发现自己面临着一个先进的、破坏性的技术库,这可能会使我们以前的技术优势被推翻--我们的武装部队不再拥有无争议的战区准入或不受约束的行动自由。"
很明显,美国情报界和美国军方都认识到,世界秩序的变化速度与技术生态系统的快速变化如出一辙。此外,在美国政府的最高层,人们承认美国曾经享有的技术优势已经被削弱,美国军队不能再以纯粹的技术优势来支配其对手了。事实上,一些写军事和技术的专家已经预示了这种认识。
军事历史学家马克斯-布特(Max Boot)在他的畅销书《全新的战争》(War Made New)中指出:"我的观点是,技术设定了可能的参数;它创造了军事革命的潜力。"他用历史实例支持他的论点,说明技术驱动的 "军事革命 "如何改变了战争并改变了历史的进程。重要的是,布特指出了技术的重要性,它使那些迅速创新和运用新军事技术的国家获得了战争胜利的优势。
美国军队已经接受了技术变革的浪潮,这构成了战争方式的真正革命。随着全球技术变革的步伐加快,美国特别善于运用新技术来应对威胁。正如布鲁斯-伯科维茨在《战争的新面貌》中指出的那样:
虽然所引用的两本书都是十多年前的旧书,但它们关于技术的论述在美国军队接受新工具的方式上仍然是正确的。但正如《2035年联合作战环境》以及其他高级别政府、情报界和军事出版物所指出的,虽然美军一直善于采用新技术用于军事用途,但这一过程一直处于压力之下。有许多因素阻碍了新技术在美国军队中的应用,包括这些部队在过去20年中所面临的高操作节奏、预算压力和持续的扣押幽灵,以及往往是笨重的军事采购系统。尽管有这些压力,各军种已经找到了接受新技术的方法,这些技术有望使平衡重新向美国的优势倾斜。
今天,美国军队采用的创新技术中增长最迅速的领域之一涉及无人驾驶系统。在过去的几十年里,美军使用的无人驾驶飞行器(UAVs)已经从寥寥无几增加到1万多架,而无人驾驶地面车辆(UGVs)的使用已经从零爆炸到12000多架。无人水面飞行器(USV)和无人水下飞行器(UUV)的使用也在增长,因为USV和UUV被证明在广泛的军事应用中越来越有用。军事无人系统(UxS)的扩大使用已经在创造十年前不存在的战略、作战和战术的可能性。
武装无人系统的扩大使用不仅改变了现代战争的面貌,而且还改变了战斗行动的决策过程。事实上,有人认为,无人机战争的兴起正在改变我们对 "战争 "本身的概念和定义。这些系统在伊拉克和阿富汗的冲突中被广泛使用,并且随着美国的战略重点转向印度-亚洲-太平洋地区以及这一战略所要求的高端战争,这些系统将继续具有同样的相关性,甚至更加重要。无人系统,尤其是它们的效用,不是作为独立的实体,而是作为被称为 "人-机-队 "的作战伙伴,是美国 "第三抵消战略 "的一个基本原则。
美国防部已经启动了 "第三次抵消战略",以确保美国保持对潜在对手的军事优势。"抵消"战略是一种军事竞争的方法,它试图以不对称的方式弥补不利的地位。与其在潜在对手也可能拥有巨大实力的领域进行正面竞争,抵消战略试图通过引入新的作战概念和技术,将竞争的轴心转向美国具有显著和可持续优势的领域。
美国在冷战期间成功地推行了两种不同的抵消战略。这些战略使美国能够 "抵消"苏联在常规部队中的数量优势,而不需要在前沿部署的部队中进行巨大的投资,因为这需要以士兵对士兵、以坦克对坦克的方式提供超额补偿。这些抵消战略依赖于技术、作战方法和组织结构的根本创新,以弥补苏联在时间、空间和部队规模上的优势。
这些抵消战略中的第一个发生在20世纪50年代,当时艾森豪威尔总统试图通过利用美国的核优势来克服华沙条约组织的数量优势,引入战场核武器--从而将竞争的轴心从常规部队数量转移到美国拥有不对称优势的领域。这种方法提供了稳定性并为威慑提供了基础。
第二种抵消战略产生于20世纪70年代末和80年代初,因为人们认识到苏联已经实现了核均势。第二个抵消战略试图通过追求一种新的联合行动方式来创造一种持久的优势,即利用常规精确武器、支持实时精确瞄准的实时远程ISR(情报、监视、侦察)传感器能力以及允许这些能力在整个战斗空间同步执行的联合战斗网络的综合效应。
幸运的是,构成 "第二次抵消战略 "的军事技术从未在与苏联的正面交锋中得到检验。然而,在 "沙漠风暴 "行动中,这些技术被部署在一支由苏联训练和装备的军队面前。如前所述,正如《战争的新面孔》所描述的那样,伊拉克的失败是彻底的,代表了现代战争中最一边倒的运动之一。显然,美国的潜在敌人注意到技术在这场胜利中发挥的关键作用。
在20世纪80年代初引入第二套抵消战略时,美国是唯一拥有知识和能力来开发、部署和成功执行情报、监视和侦察能力、天基系统以及支持这种方法的精确武器的国家。今天,像俄罗斯和中国这样的竞争对手(以及这些国家向其扩散先进能力的国家)正在追求和部署先进的武器和能力,这些武器和能力展示了许多与传统上为美国优势提供高科技基础的技术力量,如精确制导弹药。在俄罗斯在叙利亚的力量投射行动中,可以看到美国技术能力与潜在竞争对手之间的这种日益对称性。
国际安全环境中出现的越来越多的均势,使得美国必须开始考虑各种技术、系统概念、军事组织和作战概念的组合,这些技术、系统概念、军事组织和作战概念可能会改变竞争的性质,使美国比潜在对手更有优势。这一系列的能力为第三个抵消战略提供了基础。如同以前的抵消战略一样,第三个抵消战略寻求在预算有限的环境下,通过确定美国独特的力量和能力所带来的不对称优势,保持并扩大美国的技术和作战竞争优势。第三套抵消战略确保美国的常规威慑态势在未来仍像今天一样强大,并为将这一优势扩展到未来创造条件。
在解释《第三次抵消战略》的技术要素时,当时的国防部副部长罗伯特-沃克强调了无人系统、人工智能、机器学习和自动驾驶方面新兴能力的重要性。他指出,这些技术为联合部队提供了巨大的优势,使未来的部队能够开发和操作先进的联合、协作的人机战斗网络,在太空、空中、海上、海底、地面和网络领域同步作战。人工智能将使联合作战网络的自主性达到新的水平--决策权的有限授权,从而为人机协作和作战团队带来全新的机会。
无人系统、人工智能和机器学习等技术在第三个抵消战略中,特别是在该战略的长期研究和发展计划(LRRDP)中的突出地位很难被夸大。
也就是说,该战略有一个强有力的组成部分,强调在使用具有日益复杂的人工智能和机器学习能力的无人系统时,要让人类处于循环之中。事实上,人机协作是现存的 "第三抵消战略 "文件以及国防部高级官员的演讲和访谈中所强调的一个必要条件。虽然深入研究 "第三抵消战略 "技术主旨的全部细节超出了本文的范围,但重要的是要注意,该战略的主要技术路线集中在人机协作和战斗团队的概念上。这一概念的五个基本组成部分是:
自主深度学习系统,它将利用机器学习,在人类反应时间太慢的领域 "以光速 "运作,例如网络攻击、电子战攻击或大型导弹突袭攻击。
人机协作,这将使机器能够帮助人类更快地做出更好的决定。工部长列举了F-35联合攻击战斗机和海军综合火控反航(NIFC-CA)作为这些概念的例子。
辅助人类作战,这将专注于人和机器可以一起行动的方式,通过可穿戴电子设备、外骨骼和战斗应用等工具,在各种可能的紧急情况下协助作战人员。
先进的人机作战团队,将侧重于人类与无人系统合作作战;其中一个例子是海军的P-8 "海神 "与MQ-4C "海神 "的作战。展望未来,团队合作的下一个层次将研究蜂群战术和合作自主。
网络支持的、网络硬化的自主武器,将有弹性地在电子战和网络环境中运行。目前的一个例子包括战术战斧Block IX,其目标可以在飞行中更新。
知识渊博的外部观察家参考了《第三次抵消战略》,并强调了无人驾驶系统在实现美国战略目标方面的重要性。前欧洲盟军最高司令官詹姆斯-斯塔夫里迪斯(James Stavridis)上将在其发表在《外交政策》上的文章《新三体》中指出,无人系统是这个新三体的三大支柱之一,他指出:"新三体的第二个能力是无人驾驶车辆和传感器。三合会的这一分支不仅包括空中攻击无人机,还包括空中、地面和海洋表面的无人监视车......这种系统有一个明显的优势,即不需要所有最昂贵的部件:人。"
美国陆军的一份报告描述了在2014年首次阐述的第三次抵消战略,而且远在美国开始称中国和俄罗斯为同行竞争对手之前,该战略必须在21世纪的第三个十年中变形和改变:
苏联军队在数量上的优势促成了前两个抵消战略。随着美国军事技术进步的应用已经扩散到近似的对手,它已经有效地重新平衡了战场。为确保第三次抵消战略的成功实施,国防部与美国政府必须就我们试图抵消的东西以及如何平衡这些优先事项以对付处于巨大不同区域和能力的对手达成一致。
第三抵消战略的运用将恢复美国的力量投射能力,通过可靠的拒绝和惩罚威胁来加强常规威慑力,并作为长期竞争的一部分对潜在的对手施加代价。平衡或击败对手能力的能力需要资源,为确保有效运用该战略,我们必须解决我们试图抵消的问题。
鉴于第三个抵消战略的强烈技术重点,在美国寻求在本十年及以后实施这一战略时,这一战略的表现将由联合部队放置在战场上的军事平台、系统、传感器和武器所代表。同样明显的是,美国各军种--特别是美国海军--已经表示希望将无人系统作为其部队结构中一个日益重要的部分投入战场。
在国会作证时,前国防部长迈克尔-埃斯珀回答了一个问题:"美国防部技术现代化的首要任务是什么?"他指出,"对我来说,是人工智能。我认为人工智能将可能改变战争的特征,我相信谁先掌握了它,谁就会在战场上主宰很多很多年。这是一个根本性的游戏改变者。我们必须先到达那里。"
美国军方有许多理由主动利用大数据、人工智能和机器学习来使其武器系统变得更好。也许最令人信服的理由是,我们的潜在对手--特别是我们的同行竞争对手--正在积极地这样做。一个古老的观点是军事术语,"敌人有投票权"。在这种情况下,俄罗斯正在用卢布投票,中国正在用人民币投票。
这些国家正在对这些技术进行巨大投资。虽然这两个国家出于国内原因进行这些投资,但他们正在有意和有条不紊地将这些技术尽可能快地插入他们的军事系统,以便创造一个与美国军队不对称的优势。鉴于俄罗斯和中国注重保密,这些举动似乎有悖常理,但这两个国家都没有试图对这些目标保密。
在一次被广泛宣传的讲话中,俄罗斯总统弗拉基米尔-普京这样说。"人工智能是未来,不仅是俄罗斯的,而且是全人类的。它带来了巨大的机遇,但也有难以预测的威胁。谁成为这个领域的领导者,谁就会成为世界的统治者。"
很明显,其他 "大国 "将人工智能的发展视为一场竞赛,并将从中利用竞争性军事应用。
从美国的角度来看,以及从一些美国盟国的角度来看,这场竞赛在很大程度上是,尽管不完全是,军事竞争的一个方面。美国和盟国对一个或多个潜在对手在人工智能发展中领先的可能性表示担忧。第三套抵消战略被设想为一种在人工智能等新技术的军事竞争中保持领先的方法。
军事大国竞争的历史表明,人工智能竞争,本质上是一场军备竞赛,是一种自然发展。然而,比技术跨越更令人担忧的是,美国的军事对手--所有某种形式的专制政权--可能不会像以前那样致力于维持 "人在回路中 "的方法,将人工智能纳入军事事务。这在目前俄罗斯的军事人工智能发展中似乎尤其如此。
俄罗斯、中国和美国这三个主要军事大国都认识到,大数据、人工智能和机器学习有可能应用于军事能力。在政府参与人工智能研究、他们愿意在人工智能发展中承担的风险、他们将在多大程度上让位于人工智能系统的自主权以及他们寻求的直接应用方面,这三者的近期目标都有所不同。
鉴于潜在对手将大数据、人工智能和机器学习植入其军事武器系统的程度,美国军方非常有必要采取同样的措施,以确保这些国家不会获得不对称的优势。也就是说,美国军方的重点必须是证明人工智能武器系统将 "首先不造成伤害"。因此,将人工智能插入军事系统不是一个 "非此即彼 "的问题,而是一个 "多少?"的问题。换句话说,美国军方必须专注于在正确的时间和地点应用适量的人工智能。
正如我们前面所指出的,美国防部已经接受了第三套抵消战略,试图为美国提供对同行和其他对手的不对称优势。虽然这一战略有许多方面,但其中一个支柱涉及技术,而这一支柱在很大程度上取决于大数据、人工智能和机器学习来获得这一优势。作为这一技术重点的一个子集,人机合作被认为是利用人工智能的无人系统获得军事优势的一种方式。
在军事系统中找到这种恰到好处的自主权平衡所需的能力必须利用许多仍在出现的技术。军方知道它想实现什么,但往往不知道它需要什么技术或甚至能力,以使系统在自主性和人际互动之间达到适当的平衡。这种探索的一个关键因素是,不要担心机器本身拥有什么属性--速度、耐力和其他属性,而是要关注机器内部的东西。美国国防科学委员会的报告《自主性在国防部系统中的作用》是这样说的:
关于将人工智能植入军事系统的一些争议源于术语的不精确。帮助澄清这种模糊性的方法之一是确保在使用自主性一词时,它指的是人和机器之间的关系。在一段时间内执行某项功能,然后停止并等待人类的输入,然后再继续,这样的机器通常被称为半自主或有人类在环。可以完全依靠自己的力量完成某项功能的机器,但有一个人在监督,并能够在机器出现故障或失灵时进行干预,通常被称为人类监督下的自主或人类在环。能够完全独立完成某项功能而人类无法干预的机器通常被称为完全自主或人类不参与的机器。
这表明,我们需要重新调整关于自主武器的一些辩论,以更准确地区分增加武器的自主性和自主武器。在这个意义上,自主性不是指机器的智能,而是指它与人类控制器的关系。对于相对较少的无人系统将用武器与敌人作战,这种平衡是至关重要的。在发射武器之前,无人平台需要向操作者--必须有一个操作者在其中--提供一个关于发射决定可能带来的利弊的决策矩阵。
可以说,即使是一些在美国军事人工智能领域工作的人,对于将人工智能插入美国军事武器系统也会有一些矛盾。也许解决这个问题的最好方法是考虑二战中最知名的照片之一。这张照片由美国信号部队的约翰-摩尔中尉拍摄,描述了德怀特-艾森豪威尔将军在1944年6月5日,即入侵诺曼底的前一天与第101空降师的士兵交谈。在此之前,艾森豪威尔已经听取了空军元帅利-马洛里的汇报,101师是入侵期间将遭受80%伤亡的两支部队之一。
那些研究无人系统对军事行动的影响的人--特别是那些大力提倡无人系统的人--看了这张照片,可以设想艾森豪威尔将军不是与美国空降兵对话,而是与他将派往战场的机器人对话。那些害怕无人系统的人可能会想象美国空降兵就像照片中描述的那样,但他们会设想一个机器人来指挥这些士兵,而不是艾森豪威尔将军--显然这是一个站不住脚的情况。但是,那些深思熟虑地考虑人工智能无人系统对军事行动的影响的人,会设想艾森豪威尔将军向一队美国空降兵讲话,与他们的机器人伙伴站在一起。显然,需要做更多的工作来充分解决人机合作对今天的军队意味着什么。
但这种利用大数据、人工智能和机器学习的普遍愿望未能解决一个关键问题,即我们希望这些技术能够帮助作战人员执行哪些具体任务。问题的根源可能是美国军方没有能力将作战人员的需求转化为大数据、人工智能和机器学习所带来的技术解决方案。除非或直到这样做,否则这些技术不太可能被充分利用来支持美国的作战人员。
作为上个世纪最具代表性的电影之一,斯坦利-库布里克的《2001:太空漫游》将机器人(当时的无人驾驶车辆)的自主性问题作为其中心主题。看过这部电影的人很少能忘记这样一个场景:宇航员大卫-鲍曼和弗兰克-普尔考虑断开HAL(启发式编程的算法计算机)的认知电路,因为他似乎错误地报告了航天器的通信天线中存在故障。他们试图隐瞒他们所说的话,但不知道HAL能读懂他们的嘴唇。面对断线的前景,HAL决定杀死宇航员,以保护并继续其程序化的指令。
虽然今天很少有人担心21世纪的HAL会背叛它的主人,但在使用日益自主的无人系统方面所涉及的问题是复杂的、具有挑战性和有争议的。库布里克1968年的电影是有先见之明的。半个多世纪后,虽然我们接受了无人系统其他方面的改进,如推进力、有效载荷、隐身性、速度、耐力和其他属性,但我们仍在处理多少自主权是足够的,多少可能是太多的问题。这可以说是我们在未来十年内需要解决的有关军事无人系统的最重要问题。
这些正在进行的辩论已经催生了一个山寨的书籍产业,试图解决人工智能、自主性和无人系统的问题,特别是武装的军事无人系统。诸如《为战争而生》(Wired for War)、《遥控杀人》(Killing by Remote Control)等书。无人驾驶军队的伦理;无人驾驶。无人机、数据和完美战争的幻觉;反思无人机战争;无主之军。自主武器与战争的未来》和《无人机下的国家》只是试图以深思熟虑的方式解决这一复杂问题的书籍中的一个例子。
无人系统将变得更加自主,与它们感知环境和适应环境的能力成正比。这种能力使无人系统能够实现更高的决策速度,并使友军能够在对手的OODA(观察、定向、决定和行动)环路内行动。随着环境或任务的变化,感知和适应的能力将使无人系统能够找到实现其任务的最佳解决方案,而无需依赖人类操作员的持续监督、输入和决策。然而,虽然我们需要无人系统在敌人的OODA环内运作,但我们是否准备好让它们在没有我们的决策下运作--在我们的OODA环内运作?
《经济学人》杂志的一篇文章《道德与机器》以这种方式讨论了自主权和人在回路中的问题:
随着机器变得越来越聪明,越来越普遍,自主机器最终必然会在不可预测的情况下做出生死攸关的决定,从而承担--或者至少看起来承担--道德机构。目前,武器系统有人类操作员 "在环",但随着它们越来越复杂,将有可能转为 "在环 "操作,由机器自主执行命令。
随着这种情况的发生,它们将面临着伦理上的困境。一架无人机是否应该向已知目标藏身的房屋开火,而该房屋可能还藏有平民?无人驾驶汽车是否应该转弯以避开行人,如果这意味着撞上其他车辆或危及车内人员?参与灾难恢复的机器人是否应该告诉人们正在发生的真相,如果这有可能引起恐慌?
这些问题导致了 "机器伦理"领域的出现,其目的是让机器有能力做出适当的选择--换句话说--分辨是非。工程师、伦理学家、律师和政策制定者之间需要更多的合作,如果让他们自己来决定,他们都会制定出非常不同的规则。
在《纽约时报》的一篇题为 "智能无人机 "的专栏文章中,比尔-凯勒这样描述无人系统的自主权问题:
如果你觉得使用遥控战士无人机令人不安,想象一下,杀死一个可疑敌人的决定不是由远处控制室的操作员做出的,而是由机器本身做出的。想象一下,一个空中机器人研究下面的景观,识别出敌对活动,计算出附带损害的风险最小,然后,在没有人类参与的情况下,扣动扳机。
欢迎来到战争的未来。当美国人在争论总统是否有权下令用无人机进行暗杀时,强大的动力--科学、军事和商业--正在推动我们走向将同样的致命权力让给软件的那一天。
最近,虽然看起来有些反常,但对自主机器和人工智能的担忧也来自于在开发这些技术能力方面最为突出的行业。《纽约时报》的一篇文章,题为 "机器人霸主?也许不是",引用了电影《机器之家》的导演亚历克斯-加兰(Alex Garland)的话,他谈到了人工智能,并引用了几个科技行业领导人的话。
美国防部正在把人类对无人系统的控制问题作为第一要务来处理,并发布了政策指示,以确保人类确实保持在OODA循环中。时任美国防部副部长阿什顿-卡特(Ashton Carter)的一项指令发布了以下指导:
这些指令和讨论是--而且应该是--政策制定者、军事领导人、工业界、学术界和科技界之间对话的一部分,因为明天的自主系统的设计和运作是经过深思熟虑的。正如当时的国防部副部长罗伯特-沃克在新美国安全中心国防论坛上发言时指出的那样,"我们坚信,人类应该是唯一能够决定何时使用致命武力的人。但当你受到攻击时,特别是在机器的速度下,我们希望有一台机器可以保护我们"。
发布政策声明是一回事,但实际设计自主系统来执行预期的计划又是另一回事。从政策的角度来看,这是一个关键点,因为尽管人们可以选择把各种层次的决策权交给自主机器,但却不能逃避对由此产生的行动的责任。在高度自主的系统中,系统对操作者来说变得不透明,这些操作者经常会问一些问题,如:。它在做什么?它为什么要这样做?它接下来要做什么?如果被问到这些问题,很难看到操作者如何能履行对自主系统行动的责任。
由于这些原因,美国政府,特别是美国军方要向美国公众证明它不会失去对机器人的控制,其门槛是异常高的。许多人表示担心,美国军方可能会失去对其无人系统的控制,特别是其武装的无人系统。这些担心已经表现在许多方面,最明显的是谷歌停止了国防部算法战争跨职能团队的工作,也就是所谓的Maven项目。这尤其令人担忧,因为Maven项目与武装无人系统无关。
在美国最高级别的政策和战略文件中,无人系统被作为联合部队未来作战方式的一个重要部分。最近的《四年期国防审查》(QDR)指出:"延续1990年代末开始的趋势,美军将增加对无人系统的使用和整合。" 在QDR的其他地方,无人驾驶系统被确定为。"保持我们投射力量的能力"。重要的是,《QDR》强调无人系统是国防部致力于创新和适应的一个关键部分。
美国国防部对无人系统的愿景是将这些系统纳入联合部队。由于无人系统被所有军种使用,国防部发布了一个路线图,为军队使用无人系统提供一个总体愿景。在新的路线图发布后不久,《海军内部》杂志发表的一篇文章指出:"国防部新的30年无人系统计划--四年来第一次更新路线图--旨在为快速发展的无人系统技术领域制定一个三十年的指南。"最近的路线图,即2017-2042财年无人系统综合路线图,特别指出需要加强无人系统的自主性,指出。
2017-2042财年无人系统综合路线图接着列出了四个感兴趣的基础领域,将加速无人系统的整合。这些领域包括:
互操作性。互操作性在历史上一直是,并将继续是无人系统集成和运行的主要推动力。载人和无人系统已经越来越多地将其能力协同起来,重点关注使用开放和通用架构的关键需求。一个强大的互操作性基础提供了一个结构,将使未来的作战取得进展。
自主性。自主性和机器人技术的进步有可能彻底改变作战概念,成为一个重要的力量倍增器。自主性将大大提高载人和无人系统的效率和效力,为国防部提供战略优势。
网络安全。无人系统操作通常依赖于网络连接和有效的频谱访问。必须解决网络漏洞,以防止破坏或操纵。
人机协作。如果说互操作性奠定了基础,那么人机协作则是最终目标。人类力量和机器之间的协作将实现革命性的合作,机器将被视为重要的队友。
报告接着讨论了机器人和无人系统的联合概念(JCRAS),它为这些系统在未来战争场景中的应用提供了一个愿景,直到2035年。JCRAS与之前讨论的2035年联合行动环境直接保持一致,指出了机器人和自主系统(RAS)给联合部队带来的八个关键属性:
学习能力。未来的RAS将通过与环境、人类的互动以及访问网络资源来学习。
更强的态势感知。未来的RAS将通过收集、处理和优先处理来自先进传感器网络的信息来增强意识,这将为作战人员将数据转换成知识。这将使复杂、拥挤的战斗空间中的行动更加有效。
实现更高的性能。与载人和可选择的载人系统不同,RAS没有人类生理上的限制(如疲劳)。这允许在单一平台上延长射程和徘徊时间,进行持久监视,并对传感器和有效载荷进行全新组合。
提高效率和效益。能力更强的RAS将能够在军事行动范围内执行更多的联合任务,如战区内空运、地雷行动、打击大规模杀伤性武器、供应和维持,同时提高部队的效率和效力。
提供更大的灵活性。未来的RAS系统将可以通过交换模块硬件和/或下载新的软件来快速重新配置,从而赋予新的能力。未来的RAS多任务功能将使联合部队能够快速适应,以满足不同或不断变化的任务要求。
通过以机器速度运行来提高节奏。RAS以不断增加的机器速度 "思考"。RAS可以融合来自网络ISR传感器的数据,机动到一个有利的位置,并比对手的人类和RAS更快采取行动。先进的数据分析、实时处理和替代性决策框架将使指挥官能够比对手更快地做出决定和采取行动。
提供产生大规模的潜力。目前联合部队的载人库存是基于相对较少的高能力、复杂和昂贵的武器装备,无法迅速再生。RAS提供了使用大量廉价系统以产生大规模的机会。
启用分布式和分散式行动。敌方的技术将以更高的精度和范围瞄准美国部队,使传统部队面临更大的风险。使用RAS进行分布式和/或分散式作战将提高未来作战环境中的能力。
正如《质量发展报告》和《无人系统综合路线图》都指出的那样,在美军面临具有强大防御能力的同行竞争者的那些地区,无人系统是特别重要的资产。联合行动准入概念认为,"无人系统,可以在目标区域内徘徊以提供情报收集或火力",是一种关键能力,在对手拥有大量防御设施,可以限制美国和联军进入的地区,这种能力特别有价值。 此外,无人系统是在西太平洋等高威胁地区执行美国 "空海作战概念"(现更名为 "全球公域准入和机动联合概念",简称JAM-GC)的一个关键组成部分,在这些地区,对手的防御系统对有人驾驶飞机和水面平台构成了不可接受的高风险。
海军部已经为海军和海军陆战队的无人系统开发制定了雄心勃勃的目标。在一份备忘录中,负责研究、开发和采购的海军助理部长James Geurts阁下强调了无人驾驶系统的重要性,他在求职信中指出:
这份详细的备忘录继续指出:"无人驾驶和自主技术正在改变各国开展军事行动的方式......无人驾驶和自主系统的使用将改变我们的战斗方式。" 美国防部的无人系统愿景随后引出了无人系统战略和计划,最后引出了一系列高级无人系统目标:
通过载人、无人和自主能力的综合团队实现空中优势。
通过扩大我们的海底星座的全球范围来实现海底优势。
通过载人和无人自主能力的综合团队,实现地面优势。
吸收我们未来的地面战斗力。
实行多领域的无人驾驶和自主系统。
实现无人驾驶的大规模。
通过整合无人驾驶和自主系统,实现持久的供应、支持和维持。
实现全面的无人操作能力和先进的自主性和机器学习。
这八个高层次目标中的每一个都有一个段落来支持,该段落提供了关于总体目标所需的更多细节,以及海军部打算采取的步骤来实现这些预期结果。备忘录接着详细介绍了近期的促进因素和塑造努力,然后在结论中指出。"增加无人驾驶和自主系统的作战使用,有望为我们的海军部队释放出一种革命性的能力。"
最近,海军部公布了期待已久的《无人驾驶作战框架》。该文件旨在协调整个部门的无人系统工作,列出了雄心勃勃的目标,旨在帮助使无人系统成为海军平台库存中越来越重要的一部分。该框架有五个目标。
在海军和联合行动的全部范围内推进有人-无人的团队效应。
建立一个数字基础设施,快速和大规模地整合和采用无人驾驶能力。
激励无人驾驶系统的快速增量开发和测试周期。
分解共同的问题,一次解决,并跨平台和领域扩展解决方案。
为无人驾驶贡献(平台、系统、子系统)创造一个以能力为中心的方法。
尽管如此,这份38页的报告确实为海军部打算如何将无人驾驶系统引入舰队和缅因州部队提供了一个组织动力和指南。
大多数人都熟悉儿童寓言故事《金发姑娘和三只熊》。当金发女郎品尝三碗粥时,她发现一碗太热,一碗太冷,还有一碗恰到好处。当美国防部和各军种寻求实现自主性和人类互动的最佳平衡--平衡这两种经常对立的力量并使其 "恰到好处"--在一开始就将这种能力设计到未来的无人系统中,而不是试图在事后将其固定下来,这可能是唯一可持续的前进道路。如果我们不能做到这一点,几乎不可避免的是,对我们的武装无人系统将具有 "HAL"式的力量并超出我们的控制的担忧将破坏这些重要作战伙伴的承诺。
在用于军事用途的无人系统中建立适当程度的自主性的一个关键是要记住一句老话:"你站在哪里取决于你坐在哪里。" 用户和设计无人系统的人经常从不同的--通常是明显不同的--观点来对待他们试图完成的任务。海军研究咨询委员会的一份报告指出,在设计具有适当程度的自主性的无人系统时,必须调和四个不同的观点:
用户观点。我可以给这个平台一个任务,并相信它能在没有持续关注的情况下完成它吗?它能识别和处理意外事件或模糊的任务吗?
机器人学观点。我能否建立一个实用的机器人,在正确的时间做正确的事情?我可以动态地控制、导航、执行和测量我的机器人吗?它能管理和融合数据吗?
机器学习观点。我的机器能解释复杂的传感器吗?它能理解口头语言,解释手势,或识别人或物吗?
认知的观点。我的机器能不能复制人类智能的元素,如认知、推理和推理?
随着美国军方出于各种原因增加对无人系统的依赖,它最好在某个时候决定该平台是否足够好,也就是说,它具有执行任务所需的速度、耐力和其他物理属性。一旦确定了这一点,那么正如国防科学委员会报告所建议的那样,软件开发的艰苦工作必须成为优先考虑的因素。
利用大数据、人工智能和机器学习的普遍愿望未能解决一个关键问题,即我们希望这些技术能够帮助作战人员执行哪些具体任务。问题的根源可能是美国军方缺乏将作战人员的需求转化为建议由大数据、人工智能和机器学习实现的技术解决方案的能力。作为前美国海军军官和舰艇指挥官,我们思考这个问题的方式让我们很自然地想到海军的例子。
开始解决这个问题的一个方法是思考海上的指挥官需要什么信息。无论是1812年8月艾萨克-赫尔舰长试图带着宪法号对盖瑞尔号采取行动,还是今天的航母打击群指挥官考虑将他的舰艇带入一个可能有争议的地区,指挥官需要三个主要东西来帮助他做出最佳决定。
他或她需要知道部队前方的情况,需要将这些信息传达给旗舰,并需要做出明智的决定。虽然今天的海军指挥官拥有丰富的资产来帮助实现这些目标,但现在大数据、人工智能和机器学习可以帮助弥补一些差距。
一个打击小组的指挥官拥有许多资产,可以展望部队未来,以评估战术形势。他可能使用MQ-4C “海卫一”无人机系统来执行这种侦察任务。今天,"海卫一"操作人员会收到MQ-4C看到的流媒体视频。但这需要他连续几个小时盯着这段视频(海卫一的续航时间为30小时),看到的主要是空旷的海洋空间。
利用大数据、人工智能和机器学习,MQ-4C可以被训练成只发送它遇到的每艘船的视频,从而大大压缩了人类的工作量。更进一步,"海卫一"可以对每一次接触进行机载分析,以标明其可能的兴趣。例如,如果一艘船在航道上运行,已向海事当局提交了航行计划,并提供了AIS(自动识别系统)信号,那么它很可能只值得操作者注意,“海卫一”将相应地标记它。然而,如果它不符合这些标准(例如,该船突然改变航线,离开了航道,或者没有AIS信号),操作人员将被提醒。随着这项技术的不断发展,“海卫一”或其他无人机系统最终可能会配备分类算法,有可能导致自动识别目标。
一旦“海卫一”处理了这些信息,大数据、人工智能和机器学习可以帮助确定如何与旗舰沟通。在今天有争议的电子战环境中,不同的通信路径具有不同程度的脆弱性。在 “海卫一”号发射之前,指挥官可以确定可接受的通信截获风险水平,以及泄露打击群存在的风险。
掌握了这个指挥官的意图,并利用大数据、人工智能和机器学习,"海卫一"可以评估电子环境,从多个通信路径中进行选择,并确定哪条路径提供最小的拦截漏洞。鉴于 "海卫一"号的尺寸和增长潜力,它甚至可以携带一个较小的无人机,并将其发射回部队,以传递这种监视信息。
在旗舰上,指挥官必须了解他的传感器所收集的数据,然后做出一些时间关键性的决定。他应该继续前进,等待,还是撤退?他应该在前面侦察,还是在另一个方向?他是否应该调用其他部队,或者他的有机资产是否足以成功地完成任务而不会给他的部队带来不必要的风险?
这就是大数据、人工智能和机器学习可以做出重要贡献,帮助指挥官做出关键决策的地方。
如果指挥官选择勇往直前,强制进行交战,大数据、人工智能和机器学习可以做到今天的初级战术决策辅助工具无法做到的事情--提供一系列选择,并评估每个选择的利弊。重要的是,这些技术并不--也不应该--做出决定,而是为指挥官提供足够的、经过精心策划的信息,以便他能比对手更快地做出最佳决定。
对于致命的军事无人系统来说,在授权无人作战伙伴发射武器之前,操作者必须知道什么,或者像经常发生的那样,建议上级当局授权采取致命行动,这个标准更高。例如,考虑军事操作人员管理一系列正在进行的无人驾驶航空系统飞行的情况,他们一直在观察一个恐怖分子,并等待上级当局授权使用从该无人驾驶航空系统发射的空对地导弹来消除威胁。
利用大数据、人工智能和机器学习,操作者可以训练无人驾驶航空系统预测上级主管部门在授权发射前会问什么问题,即使不能提供点解决方案,至少也可以提供百分比概率或信心水平的问题,例如。这个人是预定目标的信心水平是多少?这种信心是基于什么?是面部识别、声音识别、行为模式、与某些人的联系、与已知家庭成员的接近或与已知同伙的接近?对家庭成员、已知同伙或未知人员造成附带损害的可能性是什么?等待与现在出击的潜在影响是什么?
这些考虑只是操作者必须训练其配备致命武器的无人系统处理的问题的一个子集。用大数据、人工智能和机器学习来增强这些系统,并利用它们在敌人和我们的决策圈内运作的能力,远不是把致命的权力让给无人系统,而是使这些系统能够在战斗的压力下把人类操作员从不得不做出实时的、往往是即时的决定中解放出来。从一开始就将这种能力设计到无人系统中,最终将使它们成为其军事操作者的有效伙伴。
这使我们回到了美国防部副部长罗伯特-沃克提出的一些担忧。他指出,当敌人以 "机器速度 "攻击我们时,我们需要利用机器来帮助保护我们。建立具有强大的大数据、人工智能和机器学习水平的无人系统,能够与操作人员合作进行这项工作,才能最终确保我们建造的无人系统充分发挥其潜力,帮助我们的作战人员在战斗中获胜。
有令人信服的证据表明,美国,特别是美国军队,必须在利用大数据、人工智能和机器学习方面超过我们的同行竞争对手。人工智能国家安全委员会在其2019年的临时报告中明确分析了人工智能将如何成为游戏规则的改变者。"人工智能将塑造权力的未来。"2020年,《未来国防工作组报告》这样提出将大数据、人工智能和机器学习插入美国军事武器系统的必要性:
我们通过使用无人机系统的例子讨论了插入大数据、人工智能和机器学习的影响,在这种情况下,MQ-4C “海卫一”,因为当插入这些技术的问题出现时,这是大多数人想到的战争领域。但还有一个领域,大数据、人工智能和机器学习可以在战争中产生更大的影响,那就是决策领域。
伊恩-托尔在其获奖的美国海军诞生和成熟的历史《六艘护卫舰》中,不仅记录了海军的早期发展,还记录了它在多场战争中的挣扎。67很少有人在读完这本书后,会对1775年至1815年间海军和国家的生存是如何的近在眼前。
虽然我们很容易被托尔的叙述所吸引,像读小说一样快速阅读这段历史,但至关重要的是,不要错过决策在海军的胜利和失败中的重要性。从在哪里建造这些护卫舰,到选择它们的活动区域,到它们要打哪场战役和避免哪场战役,以及其他一系列的决定,主要是使国家能够在那危险的几十年中生存下来的正确决定。
虽然今天美国海军的平台和武器与迪凯特、普雷布尔、班布里奇、赫尔、佩里、劳伦斯等舰长的海军没有任何相似之处,但今天的舰长仍然必须做出他们的前辈所做的那种生死攸关的决定。大不相同的是今天的决策速度。像宪法号、星座号和其他早期护卫舰的舰长往往有几个小时甚至几天的时间来做出关键的选择,而今天的舰长必须在几分钟甚至几秒钟内做出决定。
军事史上不乏这样的例子:做出更好决定的指挥官获得了胜利,即使他们的对手拥有地理或物质优势,这些事件在此无需重述。值得注意的是,在过去的几个世纪里,各级领导人有几个小时,甚至几天的时间来做出关键决定。但到了上个世纪中期,战争的变化极大地压缩了决策周期。
在朝鲜战争期间,俄罗斯的米格-15战斗机和美国的F-86 "佩刀 "战斗机为争夺制空权展开了激烈的战斗。空军上校约翰-博伊德(John Boyd)为了找到一种减轻美国战斗损失的方法,创造了我们今天所知的OODA循环。OODA是指:观察、定向、决定和行动。
博伊德的概念是,胜利的关键是创造一个比对手更快地做出适当决定的环境。博伊德的构思最初是一种在空对空作战中获得成功的理论,是根据他的能量-机动性理论和他对米格-15战斗机和北美F-86佩刀战斗机在朝鲜的空对空作战的观察而发展出来的。哈利-希拉克--F-16战斗机的总设计师在谈到OODA理论时说:"时间是主导参数。在最短的时间内完成OODA循环的飞行员占了上风,因为他的对手在应对已经发生变化的情况时被抓住了。"
即使是非军事观察员也清楚,空对空作战可以说是压力最大的军事行动之一。但是,军事领导人越来越意识到,压力--尤其是无法处理信息--导致军事操作人员开始出现自己的OODA环,并做出次优的决定。
在压力下做出关键军事决策的挑战在1965年的电影《贝德福德事件》中进入流行文化。这部电影松散地基于美国海军舰艇和苏联潜艇之间的一些冷战事件,其情节线围绕着美国驱逐舰贝德福德号(DLG 113)和一艘苏联潜艇之间的猫捉老鼠游戏。
贝德福德号的船员在长达数日的潜艇搜寻中变得越来越疲惫。随着寻找苏联对手的紧迫性加剧,贝德福德号的船长无视他的船员在压力下萎靡不振的警告,提高了他的要求,甚至碾压了柴油潜艇的呼吸器。当有人问船长他是否会对他的对手开第一枪时,他回答说他不会,但 "如果他开一枪,我就开一枪"。一个疲惫的少尉把他的船长的话误认为是 "开一枪 "的命令,于是发射了一枚反潜火箭,摧毁了潜艇,但在它发射一枚核武鱼雷之前,潜艇就被消灭了。
虽然是虚构的,但《贝德福德事件》对55年后的一个真实世界的事件却有可怕的预见。虽然对2020年1月伊朗革命卫队击落一架乌克兰喷气式客机的全面调查需要几个月,甚至几年的时间,但今天已知的是,在战斗的压力下,伊朗刚刚向美国军队发射了一连串弹道导弹,该国对美国的反击保持高度警惕。
在伊朗情报或军事指挥系统的某个地方,发出了巡航导弹来袭的警告。负责一个防空导弹组的军官试图联系他的上级指挥中心,以获得开火的授权。可悲的是,他无法接通,带着不完整的信息,他发射了两枚防空导弹,176人死亡。
这些事件--一个是虚构的,一个是非常真实的--有一个共同点:人类被迫在信息不充分或错误的情况下做出关键决定。在《贝德福德事件》中,它是人类之间相隔几英尺的空气间隙。在乌克兰飞机被击落的案例中,是无法沟通,以及对威胁的错误认知。
很容易将上述事件视为难以置信的虚构或不如美国军队的决定,但这将是一个悲剧性的错误。美军人员做出错误决定导致生命损失的引人注目的事件已经困扰了美国军队四十多年。
1987年5月,美国海军斯塔克号(FFG 31)在两伊战争的禁区边界附近巡逻。由于错误地认为交战双方都不会以美国军舰为目标,当斯塔克号试图与来袭的飞机进行沟通时,舰长一开始并没有感到震惊。伊拉克的 "幻影 "喷气机发射了两枚 "飞鱼 "导弹,造成37名美国人死亡,近二十人受伤。
1988年7月,怀着对斯塔克号舰长未能采取行动保护他的舰艇的回忆,在两伊战争仍然激烈的情况下,当他的舰艇被伊朗炮艇围攻时,文森斯号(CG49)的舰长错误地认为,一架接近的飞机正在接近并以攻击姿态下降。他发射了一枚SM- 2ER导弹,击落了伊朗航空公司655号航班,机上290人全部死亡。
1994年4月,两架美国空军F-15 "攻击鹰 "在伊拉克上空击落两架美国陆军UH-60 "黑鹰 "直升机,认为它们是伊拉克的米-24 "雌鹿 "直升机,机上26名军人和平民全部死亡。空军AWACS控制飞机和 "攻击鹰 "之间的误传,以及自动识别敌我系统的故障,是造成这场悲剧的近因。
2001年2月,在瓦胡岛以南10英里处,在为VIP平民游客进行的演示中,美国海军格林维尔号核潜艇(SSN 772)进行了一次紧急压载打击机动,并在日本渔船爱媛丸号下浮出水面。船上的三十五人中有九人死亡。
2017年6月,美国海军菲茨杰拉德号(DDG 62)与集装箱船MV ACX Crystal相撞。她的七名船员被杀,其他几人受伤。仅仅三个月后,美国海军约翰-S-麦凯恩号(DDG 56)与悬挂利比里亚国旗的油轮Alnic MC相撞。她的10名船员在这次事故中死亡。
虽然所有这些悲惨的事故背后有多种原因,最明显的是涉及美国海军菲茨杰拉德号和美国海军约翰-S-麦凯恩号的致命碰撞,但很明显,在每个案例中,都有可用的数据,如果使用得当,可能会打破安全专家所说的 "事故链",并防止悲剧的发生。
值得注意的是,做出这些次优决策的军方人员是在手头的工具下做了他们能做的最好工作。发生的情况是,战争的速度往往超过了人脑做出正确决定的能力。事实上,正如美国陆军研究实验室的首席科学家亚历山大-科特博士在一次指挥和控制会议上所说,"人类的认知带宽将成为战场上最严重的制约因素"。
美国空军技术地平线报告这样描述这一挑战:"尽管今天人类在许多任务上仍然比机器更有能力,但人类的自然能力正变得与技术提供或要求的巨大数据量、处理能力和决策速度越来越不匹配。更紧密的人机耦合和增强人的表现将成为可能和必要。"由于这些原因和其他原因,海军需要大数据、人工智能和机器学习,以使其作战人员在战斗中获得优势。
对于我们今天使用技术的人来说,这一挑战应该不足为奇。正如任何拥有智能手机的人在打开机器后不久就知道的那样,获得足够的数据很少是个问题。有时让人不知所措的是对大量的数据进行分类,并试图只挑出当下必要的数据。从战争的角度来看,这意味着系统只向决策者提供经过精心策划的信息,以帮助他或她做出更好的决定,而且往往是在战斗的压力下。
每年春天在海军战争学院举行的当前战略论坛是美国海军的年度会议,讨论和评估海军对国家和国际安全的贡献。虽然每个论坛都有其亮点,但2017年的活动可能会被人们记住,因为海军作战部长在会上用手说话。没错,约翰-理查森上将,一个核潜艇兵--而不是一个战斗机飞行员--用他的手说话,把听众带回了70多年前发明的航空战术。
CNO将时钟拨回到20世纪50年代的空军上校约翰-博伊德和OODA循环。理查森上将用OODA环路来讨论美国海军正在使用的各种新技术。他指出,海军已经在博伊德分类法中的观察和行动部分进行了大量投资。他指出,在大数据、机器学习和人工智能等新兴技术出现之前,我们对OODA环路中的 "观察和决定 "部分无能为力,但今天我们可以。
这正是CNO在他的讲话中使用博伊德的OODA循环的原因。他解释说,今天的海军作战人员有大量的--甚至是压倒性的--数据需要处理。他们需要大数据、人工智能和机器学习来整理这些数据,只呈现那些有助于决策者和扣动扳机者更快做出更好决策的信息。不难看出,这种将数据转化为战术上有用的信息的努力对作战的所有方面都很重要,而不仅仅是战斗机战术。
现在可能是时候在美国海军几十年来帮助作战人员做出更好决策的努力基础上再接再厉了。海军在利用技术帮助作战人员在紧张的情况下以更少的人和更少的错误更快地做出更好的决定方面一直走在前列。在20世纪80年代,海军研究办公室启动了一项计划,研究作战人员如何在高度紧张的情况下做出更好的决定。这项计划被称为TADMUS(压力下的战术决策),它利用认知科学在了解决策者如何做出决策方面取得了新的突破。这导致了海军太平洋信息战中心的科学家和工程师设计了几个原型(多模式观察站、知识墙和其他),并进行了测试,在帮助决策者实现改进决策方面取得了令人鼓舞的成果。
TADMUS与类似的海军项目一样,就其本身而言是好的。但正如理查德森上将在其当前战略论坛的发言中所指出的,直到最近,将强化决策提升到新水平的技术还不存在。今天,它确实存在,而且利用大数据、人工智能和机器学习能够为作战人员提供的东西,很可能导致海战的下一个突破,特别是在决策领域。海军太平洋信息战中心与通过海军研发界、工业界和学术界的合作伙伴一起,正在领导各种努力,以确保美国作战人员有能力以更少的人和更少的错误做出更好的决定。
在美国战略和军事指导的最高层,大数据、人工智能和机器学习被认为对为美国军队提供作战优势极为重要。而且,那些负责将这些技术整合到美国军事平台、系统、传感器和武器的人越来越多地将决策确定为这些技术可以增加最大价值的一个重要领域。
在AFCEA/海军研究所 "西部 "会议上的讲话中,海军预算主任迪特里希-库尔曼少将这样提出了海军如何能够最好地利用大数据、人工智能和机器学习的问题。"我们如何利用人工智能,不是为了生产杀人的自主平台,而是为了让指挥官在战斗中获得优势?"的确,美国海军--进而是美国军队--想要利用大数据、机器学习和人工智能的本质,不是在没有人类监督的情况下向远方发射终结者般的无人系统,而是帮助操作员做出更快、更明智的决定。
军事作战人员将始终处于循环之中,并将得到大数据、机器学习和人工智能的协助。军方希望通过这些尖端技术--无论是应用于无人系统还是战争的其他方面--来实现的是进入对手的OODA循环。负责研究、开发和采购的海军助理部长詹姆斯-格茨阁下在一次军事工业会议上这样说:"如果一支部队能够利用人工智能让决策者比对手更快地做出决定,那么它每次都会赢。"
在海军战争学院的一次演讲中,美国防部联合人工智能中心主任杰克-沙纳汉中将这样说。"人工智能对美国国防最有价值的贡献将是它如何帮助人类做出更好、更快、更精确的决定,特别是在高后果的行动中。"
很明显,美国国防部已经认识到,淹没在数据海洋中的作战人员无法做出有效的决策,并试图利用人工智能和机器学习等技术来帮助整理数据,只呈现在激烈战斗中有用的信息。
沙纳汉将军在战争学院的讲话中谈到了利用大数据、人工智能和机器学习帮助作战人员做出更好决策的机会和挑战,他指出:"在思考、书写和谈论人工智能与实践之间存在着鸿沟。卷起袖子,投入到人工智能项目中,这是无可替代的。
最近,国防部联合人工智能中心的新主任迈克尔-格罗恩中将这样强调了决策:
在20世纪的战争中,衡量军事优势的单位是坦克、舰艇或飞机,以及 "胜过枪炮和棍棒 "对手的能力。在21世纪的战争中,军事领导人只有几分钟甚至几秒钟的时间来做出关键的决定,超越对手的思维能力将决定胜利和失败的区别。
当美国军方及其国防工业伙伴在21世纪的第三个十年中制定他们的研发投资决策时,早就应该关注一个长期被忽视的领域--我们的军事决策者的思想,并确保他们能够做出更好的决定,比他们的对手更快和更少的错误。