摘要

计算能力、数据收集和算法性能正以指数速度增长。人工智能 (AI) 的进步展示了在无数领域增强人类思想和行动的能力,其中包括联合空中力量的指挥与控制 (C2)。为了在未来的战争中取得胜利,美国需要能够以压倒性的速度在多个领域对敌制造多重困境,同时防止敌人具备这种能力。人工智能将提供 C2 部队所需的认知敏捷性。拥有信息优势并能够对高速决策需求做出反应的一方将决定未来战争的结果。

本文试图让读者熟悉一些常见的人工智能类型和功能,探索具体的应用领域,并提供关于使用空中力量协助联合目标选定的建议方案。针对配对系统的武器开发,使用一个AI 创建过程的示例揭示开发细节。除了解释人工智能模型的构建之外,本文还提出了一个准备和验证人工智能模型的过程以供作战使用,并讨论了基本的实施注意事项。在联合空中力量 C2 中使用 AI 的最终理想状态是高效的人机协作和较高的认知敏捷性。

作者简介

Matthew “Jerry” Voke 少校在派遣到 ACSC、Air University、Maxwell AFB、AL时撰写了这篇论文。在担任 ACSC 之前,Voke 少校驾驶 U-28,同时驻扎在佛罗里达州赫尔伯特机场,担任副驾驶、飞机指挥官、教官和评估飞行员。他在全球范围内部署了十次支持美国的反恐活动。最近,他指导美国空军武器学校的学生担任佛罗里达州赫尔伯特机场第 14 武器中队的 U-28 行动助理主任。他的正规军事教育包括参加航空航天基础课程、中队军官学校、美国空军武器学校和 ACSC。他拥有美国空军学院的物理学学士学位和国际三叉戟大学的工商管理硕士学位。他帮助撰写了几本空军和多军种出版物,并发表了一篇武器分类论文,旨在使用飞机引导海军突击部队。

1 引言

亨利·阿诺德 (Henry H. Arnold)将军曾说过,第一次世界大战靠体力打赢,第二次世界大战靠后勤制胜。拥有信息优势和及时控制冲突能力的一方将赢得“第三次世界大战”。未来冲突的胜利将属于能够为其对手创造多重并发挑战并以压倒性的速度适应环境变化同时阻止敌人拥有这种能力的一方。通过在自动化和增强人类决策中利用人工智能 (AI),这些未来的超越是可能的。人工智能提供了将人类层面直观问题解决能力与机器速度、准确性和持久性相结合的优势。此外,人工智能的快速发展正在打造人机协作中的新应用。世界正处于人工智能竞赛中,美国必须利用人工智能来主导未来的战争并威慑潜在的对手。

人工智能在彻底改变空中力量作战中从战术到战略的潜在能力。中国和俄罗斯是追求人工智能未来的国家之一,弗拉基米尔·普京 (Vladimir Putin) 在 2017 年表示,“谁成为人工智能和网络空间的领导者,谁就成为世界的统治者。”中国领导人同样表示,“快速发展人工智能将深刻改变人类社会和生活,改变世界。 中国必须在国际竞争新阶段中牢牢把握人工智能发展的战略主动权。”意识到这一启示性潜力,美国必须努力保持主导地位,并启动向发展和实施人工智能自动化和人机协作的态度转变。

为了发展随之而来的不对称优势,美国必须寻求人工智能在自主和增强决策方面的新应用。通过确保在人工智能方面的领先地位,美国可以恢复对任何潜在对手的日益减弱的优势,从而加强威慑。人工智能和自主性的增强将使美军能够以压倒性的速度在多个领域制造多重困境,使对手无法做出反应。这种超越要求只有 AI 才能获得认知优势,它可以学习、提高人类绩效、更好地为人类决策者做好准备、促进联网解决方案、应用智能设备、协调操作以及优化效果的选择和传递。本文将专门研究如何在空战指挥与控制(C2)内对联合目标选定和评估提供帮助,作为初步实施领域。尽管本文的范围有限,但美国应在 C2 的许多领域寻求更高水平的人工智能自主和增强,以实现最快和最实用的决策循环。

新颖而强大的人工智能解决方案呈指数级增长,美国军方正努力跟上企业界发展步伐。美国防部 (DoD) 在 2017 年用于机器学习的预算为1.95 亿美元,用于深度学习的预算为 2.38 亿美元,用于语言处理的预算为 8200 万美元。乍一看,这些数字似乎是用于人工智能研究的一大笔资金;然而,国防部投资和研究的增长速度明显慢于企业部门。 2012 年至 2017 年期间,国防部在人工智能、大数据和云计算研究方面的总体投资以 5.7% 的复合年增长率 (CAGR) 增长。企业投资人工智能研究的复合年增长率约为 35%,人工智能推动了企业如何解读数据和互动。企业对人工智能的投资大约每两年翻一番。国防部对人工智能的投资跟不上企业投资或人工智能的指数增长。

历史上,联合空中力量C2 在针对能力较弱的对手进行蓄意规划行动方面一直很有效,尽管可以说它效率不高。效率可能是对抗近乎对等的敌人或在高度动态的战争中的一项重要要求。 《美国国防战略》指出,国防部“以牺牲为作战人员提供及时决策、策略和能力为代价,为卓越性能进行了过度优化”,并且必须“以相关的速度交付性能。”具体而言,联合目标选定已被证明有效但不是最有效地引导大量资产设施打击预先计划的目标,例如沙漠风暴、盟军行动和持久自由行动。美国在相对较小的战争中以预先计划的方式,对能力较弱的对手进行了这些蓄意行动。深思熟虑的计划通常在作战后 24 到 72 小时内开始,同时在动态目标选定方面允许一些例外情况。美国 C2 强化了从过去成功打击能力较弱的对手中吸取的教训,变得更加有效;然而,与在与近乎对等的对手作战时所需的效率和敏捷性方面仍有待开发。

美国必须不断努力保持空中力量使用的高效和灵活。正如约翰博伊德上校在《冲突模式》中所说,“为了获胜,我们应该以比对手更快的节奏行动——或者,更好的是,进入对手的观察-定向-决策-行动时间循环。 ”人工智能可以在许多领域以显着的效果和速度补充人类工作。美军必须启动下一次空中力量演进,并利用人工智能来增强人类的决策和行动。人工智能解决方案对于促进速度、力量、平衡、灵活性和协调是必要的,以在未来的冲突中快速创建跨多个领域的多重困境。美国必须保持在空中、太空和网络空间力量的领导地位,尤其是随着俄罗斯和中国在这些领域的投资增长。

人工智能在企业界的能力和速度呈指数级增长,颠覆了从自然语言处理到癌症诊断的各个领域。一些专家将人工智能的激增比作 19 世纪后期的电力发明,称这可能会引发同样重大的行业转型。人工智能的进步使得许多长期以来被认为是机器不可能完成的任务让给机器去表演。随着机器对机器通信和人对机器协作解决方案的不断成熟,人工智能将在人类密集型流程中变得越来越普遍。

人工智能贡献最重要的领域之一在于它能够从数据中提取相关性,而这对人类来说可能是不可见的。传感器和感知器收集或创建数据,然后必须对其进行存储、清理和结构化。将收集的原始数据处理转化为可用的人工智能燃料。然后,算法可以为人类决策者或参与者创建模型、开发和测试洞察力、绘制相关性并检测异常情况。

人工智能可以同时在人类无法理解的时间尺度上做出决策。人工智能可以帮助人类进行目标发现、情报融合、目标优先排序、指挥官分析、评估、部队分配、任务规划、任务监控和执行。人工智能将在人类无法超越的多个领域和多层次战争中实现快速决策。人工智能将聚合、整合、提炼和呈现常见的作战图,并帮助加速决策,实现当今人类无法掌握的效果。人工智能可能被证明能够将冗长的联合目标选定循环缩短为一个快速更新、对环境变化做出快速反应、敏捷和积极的循环。人类思想或行动的每一个领域都适合人工智能颠覆,包括空中力量的使用。

美国必须准备好对相关信息以高速决策响应。自动化和人机协作将改善和加快空中力量 C2 的决策和任务循环。未来战争的胜利将属于能够以压倒性优势的进行指挥、控制其部队的领导人。未来的战争将有利于能够快速处理信息并在各级战争中做出决策的交战领导人。作战目标不仅是迅速对敌人作出反应;但它也是按照自己选择的方向和节奏推动战斗。领先于敌方三步的交战领导者,会使敌方“倒退”,不断挣扎反应,无法取得主动权。

本文试图让读者熟悉人工智能的潜力,并强调在空中力量 C2 中使用的关键考虑因素。本文的主要重点是展示美国在未来的战斗中必须利用的潜在人工智能潜力。目标是通过具体的应用示例激发读者的兴趣。作者希望读完本报告后读者会对人工智能有所熟悉。开发和部署下一个不对称优势所需的先导是创新文化和适应愿景,这是通过鼓励创造性地解决问题和激发整个联合部队创新热情来培养的

本文简要介绍了一些基本的 C2 规范和流程——奠定了基础——并强调了潜在的人工智能应用领域。其次,它描述了美国C2联合空中力量的集权平衡和一些原则。第三,它调查了美国的联合目标选定和目标选择过程。第四,对 AI 基础知识和 AI 应用示例的调查将提供概念基础,然后是在军事应用中使用 AI 的几个示例。这允许讨论武器-目标配对模型,该模型说明如何处理数据、算法选择和模型输出的决策。然后,本文讨论了人工智能辅助评估,包括主导指标和反馈循环。最后,基本的实施考虑将涵盖部署和变革所需的步骤,以成功建立信任并帮助决策者在空中力量中使用人工智能解决方案

2 空中力量的指挥与控制原则规范

本节将简要地让读者了解使用空中力量的一些 C2 基础知识。简而言之,C2 是“由指定指挥官针对需完成任务时对指派和附属部队行使指挥权力。”联合空中作战是由各军种执行联合空中任务部队执行的行动。联合空中作战在作战环境和军事行动范围内可能会有很大差异;然而,读者对空中力量的 C2 有一个基本的了解是至关重要的。

2.1 集中式与分布式空中力量

美国条令规定使用集中式控制和分布式执行的原则进行联合空中作战。推动这一空中力量原则的一个过于简单的概要是,集中式控制使高级梯队指挥官能够有效地控制、集结和领导部队;执行权力下放使部队能够掌握主动权,应对不确定和不断变化的环境,并提升下层的灵活性。

技术发展经常改变空中力量这一原则的平衡。强大的通信连接提高了各层级的共同作战图景,但它也使高级领导层能够参与最细微的工作细节。这种双重性在政治控制的必要性与领导者必须高效完成任务的必要性之间造成了内在张力。 尽管在许多情况下集中式控制和执行是可能的,但有意识地适当下放执行权力将确保美国空中力量敏捷性的维持。

集中式权力和分布式权力的平衡可以在冲突之间和冲突期间发生变化,领导人必须努力提高空中力量使用中的“敏捷性”。空军未来作战概念将敏捷性定义为对情况做出快速反应的能力。敏捷性是灵活性、速度、协调性、平衡性和力量的结合。分布式通常有利于灵活性和速度,而集中式通常有利于协调性和力量。对敏捷性的理解可能意味着身体能力,但敏捷性还包括对动态对手、移动目标或变化环境做出反应的认知能力。在空中力量 C2 中使用人工智能,在于它可以协同带来的认知速度和力量,朝着敏捷性目标前进。

2.2 C2架构

C2 系统控制联合空中作战,通常围绕军种司令部指挥官的 C2 系统构建,该系统拥有大量空中资产设施和最出色的控制能力。空中作战中心 (AOC) 是战区高级单位空中控制系统,确保空中、太空和网络空间行动的有效规划和实施。当与联合或联军伙伴作为联合空战中心或联军空战中心作战时,AOC 架构也可能适用。 AOC 的规模从几个工作人员到上千名军官、入伍和文职人员之间可能存在很大差异。每个 AOC 的组织各不相同,但他们的共同目标是匹配可用的手段来实现军事任务目标。 AOC 的职责通常包括规划和控制联合空中作战,提出空中分配、空域协调、防空协调、空间协调和网络空间协调的优先事项建议。

计算、通信和信息共享方面的技术改进打乱了C2 分层架构,造成了从作战计划到战术执行的中断。 AOC 领导层能够做出历史上在较低层的作战或战术梯队中进行决策。例如,今天,最高级别的作战 C2 可能不会授予目标识别和武器释放权限,而这曾经只能在战术边缘进行。面对能力较弱的对手时,相对优势明显,对平民伤亡的厌恶可能使美国陷入自满,并错误地假设未来的战争将在相同的良性环境中发生。通过在 AOC 之外分配控制权、分散空中资产执行以及在 C2 的多个级别利用 AI 的速度和认知能力,可以提高击败近端对手所需的效率和敏捷性。

空中力量的 C2 具有利用人工智能增强和自动化提高认知敏捷性的巨大潜力。下一节将讨论空中力量 C2 中 AI 应用的一个示例——联合目标选定。目前,在规划和执行联合空中作战时,目标选定循环内存在数据缺口和效率低下,使关键信息的有效传输变得复杂。下一节将介绍人工智能如何帮助决策者更好地了解他们的作战环境、将战场数据过滤融合为相关信息,提高决策速度。

2.3 联合目标选定(joint targeting)

联合目标选定旨在将提供给联合部队指挥官(JFC)的可用手段与利用空中、太空和网络空间力量实现军事和政治目的的方式相匹配。这是一个选择目标并确定其优先顺序并匹配相应响应的过程,同时考虑到作战需求和能力。联合目标选定可以发生在实现 JFC 目标所需的任何战争级别。联合目标选定,将所需效果与这些目标相匹配,最后选择能够提供所需效果的手段

战争迷雾和摩擦、目标重复、未知数、整合要求、二阶和三阶效应以及可用资源的缺乏,使得方式方法与目标匹配工作变得复杂化。联合出版物 (JP) 3-30文件(联合空中作战的指挥和控制),强调了效率的重要性,并指出:“有效和高效的目标开发过程与联合空中任务循环相结合,对于联合空中部队指挥官( JFACC)规划和执行联合空中作战至关重要。联合目标选定过程应整合国家机构、作战司令部、下属联合部队和组成司令部的情报数据库、分析能力和数据收集工作。”本节将讨论人工智能如何帮助实现联合作战所需的效率目标循环。

为了在联合目标选定循环(joint targeting cycle)中提高效率,流程中的各个步骤和步骤的自动连接必须提高效率。如图 1 所示,联合瞄准的六个阶段包括:

1.结束状态和指挥官的目的开发,

2.目标开发和优先排序,

3.能力分析,

4.指挥官的决定和兵力分配,

5.任务规划和部队执行,

6.评估

图1:联合目标选定循环(JP 3-60)

人工智能可能会加速和优化目标开发和优先级,提供近乎即时的能力分析,快速迭代规划目标,并自动制定攻击计划。

C2 参谋人员在联合空中任务循环中进行联合目标选定,这是经过精心设计的,但允许在循环外执行一些动态目标。JFACC 可以更改流程以匹配环境;然而,空中力量任务循环本身仍然是经过深思熟虑的,并且通常在持续时间上是固定的。在空中任务循环内快速或有效的动态目标或时间敏感性目标的请求与过去的能力和时效性有关。任何“弹出式目标”通常需要至少 12 小时才能在空中任务指令 (ATO) 流程中采取行动。在没有特定目标的情况下规划或启动,并且能够对实时机会做出反应。在 12 小时窗口内使用 ATO 流程重新部署刻意分配任务的资产灵活性通常很小,当前的作战部门可能会在正常的空中力量任务分配流程之外提供任务分配。尽管有严格的联合空中任务循环,但在时间敏感或高度动态的目标中需要灵活性和速度,而不是在它的帮助下。

目标选定的最大困难之一是在不同时间尺度上有效和全面地融合目标。联合部队针对不同时间执行的目标集,实施探索发现、优先排序和匹配效果。此外,目标开发循环以不同的速度发生,并且传感器可能会在硬性目标过程的后期发现高优先级目标。美国要求有能力尽快适应环境和敌人的行动。由人工智能辅助的联合目标选定循环可以有意识地和动态地继续寻求目标,并且能够使用不断更新的循环来匹配效果并对目标进行优先级排序。当 C2 将资产设施与高价值“弹出式”目标配对时,其原始目标应立即流回目标解决方案,重新确定优先级,并可能移交给另一个打击资产。进行这种目标循环的规模和速度只有通过人工智能的认知速度和强度才能实现。由人工智能推动的联合空中目标选定循环是动态和不断迭代的。

2.4 目标(Targets)

目标的定义是任何人、地点或事物,考虑采取可能的行动来改变、降低或抵消它为对手执行的功能。 联合空中部队指挥官(JFACC)根据对联合部队目标的贡献程度、实现预期效果的可能性、交战成本和许多其他因素对目标进行优先级排序。目标可以是人员、设备或基础设施;相反,目标也可能具有数字能力或者是网络空间中的实体。联合目标选定中的目标分析不仅定义了目标,还定义了它们的优势、劣势和相互联系。

规划者必须详细记录目标特征,以便他们可以开发、关联和融合目标。特证是特定于目标类型的,但通常可以包括诸如位置、大小、详细外观、目标构成、分散、硬化、电磁特征、发射器和移动性等细节。目前,人类通过低鲁棒性的机器对机器通信的数据库,来手动输入目标特征、编译目标、关联目标、消除冗余并确定目标优先级。

然后,JFACC 的参谋人员对目标进行优先级排序,将其与效果相匹配,并利用可用资产、输入和来自各组成部分指挥官的协调来执行任务。为了关闭目标选定中的反馈循环,评估小组需要分析行动对实现军事目标的影响。评估提供了成功的衡量标准,这些衡量标准可以反馈到培训人类决策者中,并且可以应用于人工智能系统的教学。这个迭代循环强化了最佳行为并减弱了不良行为。

2.5 为什么需要AI?

实施人工智能辅助情报融合和目标优先级排序可以比任何大规模的人工过程更快地动态推荐重新分配军事资产设施。目前 AOC 中采用的深思熟虑和动态的目标选定循环包含最低限度的自动化,充斥着多余的人力,并且缺乏有效的交叉沟通。在目标选定循环内将人工密集型任务实现自动化,可以加强观察、定位和决策循环。即使是促进目的、任务、目标、特征和武器在循环步骤之间有效流动的基本自动化,也会减少流程的时间。更全面的人工智能实施将促进目标特征的近乎瞬时融合、匹配目标的优先级、弹药匹配和空中任务调整。人工智能实施的一个目标是将联合空中目标选定过程从目前的三到五天减少到没有固定持续时间的过程,该过程还可以迭代适应实时变化的作战环境和威胁。

3 在哪里用AI?

当数据中存在潜在模式或相关性时,人工智能会很好地工作。因此,人们应该在可能存在相关性的地方寻求使用机器学习,并且有足够数量的训练数据来绘制这些相关性。其次,试图解释潜在相关性的模型应该足够简单,以快速解决未来的问题。这些概括也有例外,但这些确定是探索的良好起点。人工智能需要包含相关性的数据来​​对环境和预测做出结论。人类目前在解决新颖或非结构化问题方面更有效;人工智能在高度相关的环境中茁壮成长。

人工智能目前在多个领域表现出优于人类的优势。首先,机器学习在人类无法确定管理数据或关系的规则的情况下表现出色。当存在大量变量、变量之间存在复杂的相互联系或人类无法“标记”数据时,这种确定是可能的。这方面的一个例子是基于 DNA 预测疾病。在没有帮助的情况下,人类将无法处理一个人类基因组中的所有数据,更不用说来自数千个示例的关联相关性了。

机器学习擅长的另一个领域是人类可以理解相关性,但规则无法通过蛮力编码来解释它们。人类很容易识别手写字符,但要使用识别手写所需的所有规则对计算机进行编程却非常困难。在这种情况下,人工智能的优势在于能够以相对便宜的方式扩展应用程序。 AI 读取并自动发送邮件,减少邮政服务人员的需求并降低消费者的成本。机器学习潜力的另一个领域是执行人类可以完成的任务。然而,情况经常发生变化,人类不断对机器进行重新编程的成本过高。人工智能可以根据数十亿个数据点几乎瞬间更新感知。这方面的一个例子是亚马逊的推荐系统。使用人工智能,亚马逊近乎实时地更新产品推荐,明确为数亿人量身定制。在有太多实例无法单独理解或编程的情况下,人工智能会迭代地适应和学习不断变化的数据。人工智能在人类不了解管理数据的规则、他们理解规则但无法准确编码解决方案,或者扩展或迭代调整解决方案成本过高或不切实际的领域非常有用。

人类在创造力、独创性、责任感和同理心方面保持相对优势。虽然人工智能可以原创十四行诗并绘制出独特杰作(评委无法将其与人类艺术家区分开来的),但它们的创造力和独创性始终是有争议的问题。这些人工智能本质上是通过学习模仿人类的例子来模仿创造力和独创性。然而,这些优势领域可能正在逐渐消失。这种侵蚀的一个例子是从 DeepMind 的 AlphaGo(通过分析人类棋局学会熟练地下围棋)到 AlphaGo Zero 的转变,后者仅通过强化学习和自我博弈(而不是观察人类下棋)来学习。机器正在迫使人类重新评估原创性和创造力的定义。责任可能是目前人类主导的最“黑白”的领域。

在战争事务中,人类不应将责任委托给机器,因为他们无法对自己的决定和行为负责。最后,人工智能无法理解人类同理心、道德、信仰、价值观或隐含目的的复杂性。人工智能可以学习模拟道德或遵守参与规则;然而,人工智能不太可能很快内化人类的同理心,或者批判性思考人类道德、价值观和某些行为的能力。

由于这些原因,在可预见的未来,战争本质决定了很可能仍然靠人类努力。人类将在作战设计和更接近“战争艺术”特征的领域中保持优势。人工智能将在数据处理、信息融合、优先排序、分析、处理和通常被称为“战争科学”的程序方面出现激增。人工智能将在战争的各个层面为人类提供帮助——从援助到完全自主——每一个补充对方的优势,不对称地应用于对手的弱点。

4 创建AI模型

前面的部分为读者在空中力量 C2 和 AI 基础知识中进行联合目标选定奠定了基础;下一步是创建一个建立在该基础之上的 AI 框架。有无数种方法可以处理每个 AI 应用程序,本节将为非技术读者解释一个通用框架——不涉及任何数学或编程!这个通用框架将按时间顺序逐步执行:

1.如何确定 AI 的使用领域,

2.如何查找和准备数据,

3.如何选择算法并生成模型,

4.如何创建适当的决策规则并使用输出。

武器-目标配对模型作为示例包含在每个步骤中,以增加对概念的一些特异性和理解。

4.1 确定应用领域

创建机器学习解决方案的第一步显然是确定应用领域,例如工时密集型或高度重复性任务。 AI 擅长解决包含强相关性或示例案例的问题。此外,重要的是要记住不要仅仅为了获得 AI 解决方案而将 AI 解决方案强加于问题。在解决问题时,人工智能应该提供准确性、速度和/或更高的效率。

在分析应用领域时,最好从相对简单的问题开始实施,向复杂的问题努力。哪些问题由人类解决相对容易,但需要大量时间或经常重复?联合目标选定是人类很容易将特定目标与预期效果联系起来的领域,但该过程经常变化并且需要大量人力。在联合目标选定中,几个领域将受益于人工智能:武器-目标配对、任务-飞机配对、目标优先级排序、战场态势感知、蓝军和红军跟踪、系统节点分析、空袭计划制定、ATO 开发和目标情报融合。本文AI 示例将侧重于武器-目标配对的使用领域。

4.2 收集与准备数据

数据是人工智能需要学习的燃料。每个应用程序所需的数据类型会有所不同,哪些数据对人类认知是必要的是收集的一个很好的起点。单个推测可能会为数据收集提供一个起点,但可能会产生一些错误的相关性,同时也会丢失人类不可见的相关性。如果数据中没有任何已知的相关性,无监督学习可能会在没有人类直觉的情况下初步确定关系。

在武器-目标模型的例子中,要收集的基本数据是目标、武器和使用环境的特征数据。每种武器所需的一些数据将包括武器杀伤概率 (Pk) 和损坏概率 (Pd)、致命影响半径、风险估计距离、可靠性率、圆形误差概率 (CEP)、制导要求和可用性。一些目标特征数据将包括目标类型、大小、数量、分散、硬化、障碍物、机动性、防御能力和反射率。环境数据可能包括区域威胁状况、光电能见度、红外能见度、全球定位系统 (GPS) 状态以及与人员和建筑物距离有关的附带损害。有些数据很容易获得,有些数据需要研究或模拟,有些数据可能需要新收集。

数据划分分为两个基本类别:观察数据(输入)和结果数据(输出)。如果数据代表目标或环境特征,则为观测数据。如果数据表示结果,则它是结果数据,例如武器 Pk 或 Pd。接下来,工程师必须按要求清理异常数据,填写缺失数据,并规范格式。清理和结构化数据通常是一个困难且费力的过程。工程师必须将数据结构化为可用的形式来训练 AI 模型,而不会牺牲过多的“好”数据。在数据收集、清理和结构化之后,工程师选择算法以从数据中创建预测模型。

4.3 选择算法

寻找“最佳”算法可能是复杂且耗时的。好的是,数据科学家和工程师对于在每个应用领域中哪种算法更强或更弱都有经验法则。选择算法的目标是找到一个在给定观察数据的情况下最准确、最容易预测正确输出的算法。考虑算法选择的简单方法类似于选择正弦波、直线或对数曲线(或它们的某种组合)是否可以表示二维绘制的数据。在算法选择中,如果时间和计算能力允许,可以训练和测试多种类型的算法。对于示例武器目标问题,神经网络或最近邻模型可能是最准确和最可靠的预测器,因此将开发这两种方法。

神经网络是链接到前一行的神经元的若干系列神经元,这些神经元链接到前一行并最终链接回输入数据。训练调整每个神经元之间链接的权重和/或导致神经元触发的阈值。神经元网络的一侧是前面讨论过的输入(每个独特的观察数据类别),而神经网络的另一侧是输出(每种武器和融合组合的 Pk 或 Pd)。为了训练神经网络,神经元最初接收随机权重,数据通过最小化输出误差来调整神经元。图 5 描述了神经网络训练,它将每个预测与已知结果进行比较,然后使用它们之间的误差来调整神经网络参数。

图5:训练神经网络

训练迭代最小化预测和现实之间的误差。这种迭代调整的方法提供了更高的准确性,但需要一些透明度,并且人类可能难以理解神经网络权重的含义。

相反,最近邻是最简单的机器学习类型之一。在这个武器-目标配对示例中,程序员可以使用它来比较神经网络的性能。最近邻模型将目标示例的特征与已知示例的特征进行比较,以确定哪种情况最能代表测试目标特征。这类似于警察如何根据他或她最近的邻居的隶属关系来预测个人的帮派隶属关系。该模型擅长根据之前收集的数据对新病例进行分类。

武器-目标示例的维度可能会增加 10 个维度。每个维度代表一个目标或环境特征,包括:大小、类型、机动性、装甲、GPS 可用性等。有关高维最近邻渲染的表示,请参见图 6。

图6:最近领表示

一旦算法生成经过训练的模型,模型就会针对工程师之前从训练数据中分离出来的数据进行测试(这可以防止模型过度拟合训练数据)。如果效率相当,工程师会选择最准确的模型。如果模型产生相似的性能,工程师通常会选择最有效的模型。训练完成后,模型可以根据需要重新训练新数据。人工智能开发是一个持续的过程,运营商和信息保障经理应与工程师一起维护和完善人工智能解决方案。

4.4 决策

然后,该模型必须转化为决策或行动。人类必须决定如何对模型的输出采取行动。例如,该模型将产生一个分类或可能性,它可以为决策提供 if-then 场景或规则。在武器-目标示例中,模型将为每个武器和目标融合输出 Pk 或 Pd。适用于模型输出的有用规则包括相称性、附带损害最小化或武器稀缺性。这些规则可以对所需武器进行排序,并限制 AI 建议对每个目标使用核武器(核武器在图 7 中表示为 1.00 输出)。

图7:武器-目标配对神经网络

此外,人类必须决定授予 AI 的权限级别。如果人工智能准确可靠并且在相对低风险的领域运行,则它可以在没有人工监督的情况下运行。例如,如果人类仅在 80% 的时间里找到“最佳”决策,那么如果该模型在 95% 的时间里做出“最佳”决策,则人类应该遵循武器目标模型的建议。为了帮助做出这一决策,许多各种类型的人工智能可以用他们的预测来表达置信度。置信度可以表示为测试示例与用于训练 AI 的数据的接近程度。如果训练数据不足,或者 AI 不知道如何解释示例,则置信度可能较低。人类应该将置信度和准确性与人类和其他模型进行比较,以决定授予人工智能多少权限,这可能取决于具体情况。

关于模型何时足够准确以供使用的决定可能很困难,在训练场景中让模型模仿人类可能是明智的,这样他们就可以评估自己的表现并发现潜在的弱点。决定授予人工智能多少权限应该取决于风险、置信度和时间。领导者应该在低风险领域授权需要速度的决策,同时在不那么紧急的高风险决策时可以暂缓授权——见图 8。

图8:考虑风险与时间下的自主级别

4.5 评估

战时评估是收集和理解信息以更新战争信念或观点的行为。评估过程是每个战争级别、每个领域的要求,领导者应有意识地努力确保评估过程中提出的建议准确性。Scott Gartner 在 Assessing War 中写道,使评估变得困难的三个因素包括“战时信息的积累速度快于战时分析能力,领导者需要在清楚了解正在发生的事情之前做出决策,以及信息环境包含巨大的不确定性和噪声。”人工智能可以在速度和大型计算领域为人类提供帮助,例如那些具有挑战性的评估。目前的评估“反映了准确性和速度之间的权衡”。人工智能可以提高评估速度;但是,它并不能消除信息滞后。由于需要集中评估以及收集和融合数据的要求,总会存在固有的延迟。人工智能增强的评估可以根据数据不断迭代分析。除了人工智能在速度和准确性方面的帮助外,本节还将讨论人类如何利用人工智能来减轻人类在感知和处理数据方面的偏见。

目标评估是一个持续的过程,用于评估实现预期效果的有效性。评估试图衡量行动产生的影响。但影响往往难以衡量。例如,领导者如何衡量敌人的士气或战斗意愿?衡量成功和目标成就需要具体的成功衡量标准。 Scott Gartner 建议定义代表预期效果的主要指标,这些指标更容易识别和衡量,而不是试图衡量效果本身。

主导指标是可以轻松识别观察者看不到的模糊的潜在事实和趋势标志。主要指标侧重于战时绩效指标,使用基于时间的定量绩效衡量指标来反映组织的任务完成情况。如本文前面所述,人工智能通常优于人类的领域之一是确定数据中的潜在相关性。使用有监督或无监督学习,机器人团队可以开发出与性能和效果在统计上相关的主导指标。人工智能可以统计显示哪些变量与目标成就及其重要性水平相关联,而不是仅仅依靠人类的启发式、偏见和认知捷径来确定评估者认为哪些是成功的。 AI 显示了与数据相关的主要指标,而不是猜测反馈的定量方法。

军事评估的目的不仅是为决策者提供对作战进展情况的衡量标准,而且评估的目的还在于创建一个可操作的反馈循环,用于调整对未来作战的看法、假设和信念。评估关闭了反馈循环。评估在人类决策中至关重要,但可以说在人工智能应用中更为关键。反馈是人工智能能够适应和改进环境变化的唯一途径。人工智能系统的评估与人类的评估方式非常相似,调整先前的预测,进行学习和适应。

对于人工智能来说,评估的结果应该不断地反馈到训练模型中。在武器与目标配对示例中,规划人员或机器接收针对特定目标使用的武器的炸弹损坏评估 (BDA),并将在适用时更新 Pk 和 Pd 模型。例如,如果模拟显示特定弹头能够穿透硬化结构,但现实显示不同的结果。人类将观察返回的 BDA 报告并调整他们对该特定弹头的使用。在机器学习中,预测和实际损伤比较以及由此产生的误差会更新模型。通过使用更多 BDA 和高度多样化的场景迭代训练模型,模型收敛到更新的事实。

制定适当的成功衡量标准对于人类和人工智能的学习都至关重要。选择一组指标必须揭示有关环境的信息,并为其收集创造适当的激励措施。如果指标或关系的权重存在虚假陈述,则可能会出现负面训练。这种负面训练可能导致人工智能或人类感知永远不会与现实融合。由于这些原因,人类必须创造明确的目标;操作基准必须将总体目标与可确定的有效性度量 (MOE) 联系起来。 MOE 与绩效衡量标准 (MOP) 相关联。此外,人类应不断评估人工智能预测的准确性,并在必要时提供再训练。在组织内工作的 AI 专家能够及时调整模型和再训练,塑造对成功至关重要的学习。评估必须不断完善人类和人工智能认知,以适应环境。如果领导者寻求不正确的成功衡量标准,人类和机器都会优化不正确的行为。

4.6 评估案例研究

越南战争中的目标设定和评估无效的一个例子很明显。美国领导层制定了敌人“人数”的作战基准。领导人认为,如果越共和北越无法弥补他们在战场上的损失,南越将会稳定下来。威斯特摩兰将军后来强调了这一指标的不足之处,他说:“诚然,“人数”统计是衡量进展的不完美标准,但在没有常规前线的情况下,我们还能如何衡量成功?”在强调人数的重要性,领导层误解了越南的真实情况。此外,在试图将下属的信息拉向人数的操作基准时,他们向下属提供了有害的激励措施。士兵和领导人错误地夸大了人数,试图最大限度地增加人数会导致非法和不道德的行为。本案例研究强调了目标、操作基准、MOE 和 MOP 对人类和 AI 行为的重要性。当使用不正确的措施和目标时,可能会在训练中强化不良行为。

4.7 偏见

人类本能地从有时难以解释的观察中得出结论。人类也倾向于吸收传入的信息以适应现有的信念和期望。由于神经元串行处理速度的限制,认知捷径和启发式方法对于人类快速做出决策是必要的。大脑通过基于先前学习对当前经验进行分类和关联来做到这一点。数据的自动处理、过滤和分类使大脑整体能力更强;然而,这些捷径也可能导致误导性评估。这种过滤和偏差发生在较低级别,例如模式识别以及高级分析和评估中。当人们只看数据本身时,既存的信念在面对意想不到的新信息时具有持久力。人类必须承认这把双刃剑,并利用它来发挥自己的优势,同时减轻自己的弱点。人类不应该试图修复、升级甚至根除使我们成为人类的东西;相反,我们应该设计技术来补充我们的能力和局限性。领导者应该寻找人类认知薄弱、不准确或缓慢的领域来进行人工智能的初始实施,同时在依赖创新、独创性和创造力的领域将主导地位让给人类。

偏见决策不仅限于人类;人工智能也不能幸免于这些来自现实的扭曲。偏见可能会通过训练中使用的数据、算法和结构或通过实施来影响 AI。每年都有偏见 AI 的例子,而现实是 AI 仅根据其编程和训练来做出决策和采取行动——专家称之为“算法偏见”。算法偏见的例子包括无法检测到黑人女性的面部识别程序、向女性展示较少高薪工作的广告、预计少数民族男性的累犯率增加以及“种族主义推特机器人”Tay。用于训练 AI 模型的数据必须没有不良偏见,否则 AI 可能会产生不良行为。

人工智能可以为评估提供更大的客观性。在备选方案之间做出决定的过程可能很繁琐;它“为重新考虑设置了强大的障碍,即使新信息对最初选择的有效性产生怀疑。因此,决策者不是重新审视最初的选择,而是贬低、曲解或忽略与该选择有关的新信息。” “决策者具有强大的组织目标或自身利益可能会忽略或最小化与这些利益冲突的传入信息,并突出显示支持 . . .以我们可能不认识的方式对我们对数据的解释进行着色。”评估是人工智能实施的另一个成熟领域,因为数据量很大,而且人类偏见可能会扭曲认知。人类应该利用人工智能来增强战时评估实践,使其更全面、更快、更客观。

5 实施AI模型

一旦我们创建和训练了 AI 模型,我们的工作就没有完成;最终的成败在于实施细节。透明度和控制是在任何 AI 系统中建立信任的要求。此外,任何解决方案的人机界面和无缝集成都将成为成功实施的基石。国防战略承认这一挑战,并指出:“成功不再属于首先开发新技术的国家,而是属于更好地整合新技术并适应其战斗方式的国家。”人类操作员可能会采用人工智能解决方案只有当它们值得信赖并提供无缝且有用的界面时。本文中推荐的实施不太可能很快发生,它们也不够详细,无法在今天直接实现。美国必须将研究、人员配备和资金投入到深思熟虑的实施过程中。使用敏捷开发方法,通过分解问题的各个部分,并随着时间的推移产生小的胜利,成功的实施和改变是可能的。

美国不能在一次浪潮中或完全使用现成的解决方案来实施一个大型的“人工智能解决方案”。由于应用程序规模、环境复杂性和组织对变革的抵制,试图开发一种广泛适用的“解决方案”将是一项不可能完成的任务。对现有流程的迭代改进将推动增量变化,建立信任,并随着时间的推移导致进一步的发展。

随着时间的推移,建立信任并引导进一步的发展。在与教授未来 AOC 专家和新 AOC 部门领导的数十位学者和专家的对话中,大多数教师对短期内有意义的人工智能集成表示了相当大的怀疑。每个人都看到了这篇论文的必要性;然而,专家们很快在鼓励之后发表评论,详细说明由于依赖当前的“做事方式”和所需的应用范围,它几乎没有实施的机会。教条式的循环很难打破,它们通常需要外部冲击来突出变革的必要性。人们并不认为 AOC 目前已经“崩溃”,本文也没有暗示这一点。然而,正如前几节所述,美国未能保持“相关速度”和认知敏捷性存在危险。 本文的目的是试图帮助调整国防部文化并确保追求下一个针对任何潜在对手的不对称超越。

组织和国家坚持他们历来重视的技术和实践,以及那些支撑他们当前优势的技术和实践。大多数专家同意,空中力量的 C2 在打当今战争方面是有效的,但在实现政治目标方面往往效率低下。通常,领导者会在选择目标的同时选择实现目标策略。此外,领导者将注意力集中在渐进的“创可贴(Band-Aid)”修复上,而不是寻找可能导致最佳结果的总体公式。最终的问题是:

1.AOC 能否在明天的战争中面对近乎同等的对手时进行有效的控制?

2.当前和未来的大趋势是否会使当前的空中力量 C2 手段和方式过时?

3.是否会出现巨大的失败来强调向更智能的 C2 转变的必要性?

我们当前的范式、官僚主义和组织动力所造成的抑制是技术发展和创新中最重要的障碍。理想情况下,更新空中力量的 C2 将利用现代理论和可用技术来全面开发最佳 C2 结构。然而,人们对全面的 C2 大修并没有兴趣,最有可能成功的机会是逐步开发和应用人工智能解决方案,随着时间的推移建立能力和信任。

5.1 作出改变

控制、职能、流程、结构、人员配备和领导角色的平衡可能会随着时间的推移在人工智能实施中进行调整。当前的任务机制:计划、任务、执行和评估,可能仍然适用;但是,监督这些机制的组织和方法可能会发生变化。随着人工智能解决方案的适应性开发和实施,领导者将能够测试和运行系统,并通过渐进式变化观察其影响。测试和演习应包含完整版本的作战结构,以突出潜在的不足和需要改进的领域。有效的 AI 需要大量数据,而这些数据可能不会出现在小型测试或演练中。如果未来的战争需要在多个领域快速适应 C2,美国必须以这种心态开发结构、部队、流程、测试和训练。人工智能将补充和自动化某些领域的员工密集型工作,同时创造其他领域不存在的潜力。某些感知、分析、传播和决策方法对于当今的工作人员和机组人员来说将变得陌生。

C2 和 AI 专家无法准确预测他们未来将如何以及在何处使用 AI;然而,对实施过程的有根据的猜测是触手可及的。为在空中力量 C2 中成功部署人工智能,建议采取以下七个步骤:

1.领导者必须确保制定和分发从数据收集到人类或人工智能行动的架构、透明度、安全和通信标准。

2.联合部队必须为人工智能的开发、测试和演练开发孵化器。联合部队必须为这些试验台提供足够的资源,并提供迭代开发和改进跨任务集和战争级别的人工智能解决方案所需的访问权限。

3.孵化器一旦开发出人工智能解决方案,就必须在模拟中对其进行测试。兵棋推演必须充分模仿资产行为并复制现实世界。模拟允许在批准用于实际使用之前在良性和安全的环境中进行新的 AI 测试。

4.联合部队必须在演习中测试人工智能,然后才能获准参战。从战术到作战层面进行的演练提供了微调认知和行为的能力,以及开发和评估作业策略、技术和程序的能力。采用新技术时,人类的迭代适应和性能改进的相同理论也适用于人工智能的使用。改善 AI 行为的两个示例方法包括:a.最初跟随人类决策者并从他们的行为和决策中学习。在向人类决策者进行初步学习后,人工智能可以通过未来的自我学习继续改进,而不会受到人类的影响。或 b.通过在对抗性学习或强化学习环境中对几代 AI 模型的行为进行自我训练,迭代地改进 AI 决策,然后将性能与人类行为者进行比较。在训练过程中,人类应该在表现出可取或不受欢迎的行为时提供轻微干涉。

5.与人类和其他人工智能相比,AI一旦表现出卓越的性能,就可以选择使用AI。每个应用领域所需的性能水平会有所不同,包括置信、时间和风险等因素(参见图 8)。如果满足以下条件,人工智能认证应批准人工智能作业:a. AI 已达到所需的性能水平。b. AI符合安全要求,遵守适用的交战规则和国际武装冲突法。 c. AI 满足安全要求,包括对所需数据的访问、所需的机密性以及数据和信息流的完整性保证。 d. AI 可以与所需的实体进行通信。 e.如果需要,人工智能可以由人类控制。

6.当联合部队使用人工智能时,他们应该寻找相邻的使用领域,以补充和扩大自动化,增强有效性和效率。人工智能解决方案的增量实施将通过协同效应获得效率和性能,通常称为飞轮效应。

7.联合 C2 的组成、组织、流程和速度将在人工智能的实施过程中不可避免地发生变化。领导者及其员工将负责调整流程、组织结构和训练,以获得人工智能的利益。

在人工智能增强的战斗中,联合空中力量 C2 的领导力无疑会有所不同。人类可能会花更多时间在评估、分析和决策上。随着机器快速清理和构建大量数据,人类决策者可以将更多时间投入到人类擅长的事情上——在作战“艺术”中发挥创造力,做出负责任的决策,并为棘手的问题集带来独创性。任何将人类决策注入人工智能繁重的周期都将不可避免地减慢这一过程。然而,人类可以在决策循环中提供显着的风险缓解和监督。在决定何时何地需要人工决策时,领导者必须评估风险接受度、对 AI 的信任、AI 置信度、成本、时间限制、战略影响和潜在的意外影响。随着人工智能的发展和广泛实施,失败的机会越来越多。错误和硬件故障的机会随着复杂性的增加而增加。未来可能继续需要某种程度的人机交互。战争的本质仍将是以人为中心的努力。反复出现的管理和维护挑战放大了对决策者和工程监督的要求。主题专家、工程师、信息经理和决策者应该从开始到部署齐头并进。

5.2 对AI建立信任

在将控制权交给人工智能之前,信任是任何系统的要求。人工智能的大多数当前应用程序执行相对良性的功能,无需做出生死决策。人工智能在 C2 中的初始应用也应该在能力和过程最容易理解的领域和低风险领域。随着时间的推移,应用领域可能会增加;然而,人类在信任人工智能合作伙伴之前需要透明度、控制力和可信度。

人工智能和自动化通过小小的胜利建立信任。低风险领域的逐步实施将表明人工智能是有能力的。例如,人类对将日常通勤中的权力委托给人工智能持怀疑态度,因为高速驾驶是一项冒险的尝试;然而,数十万人在日常通勤中信任特斯拉汽车。随着时间的推移,人类通过其展示的能力变得舒适和信任。多年来,人工智能已经建立了控制车辆的能力。最初,图像识别展示了识别物体的能力,例如标志、人、汽车和画线。深度感知和自由空间算法发现了在环境的实时表示中显示可驾驶区域的能力。最后,将多种形式的人工智能融合到驾驶解决方案中,超过了普通人类驾驶员。特斯拉通过可信度和展示能力建立了对其人工智能的信任。

透明度还通过可追溯性、理解和验证来促进信任。在中高风险应用程序中实施的人工智能必须能够显示基本假设并追踪得出结论的方法。跟踪从输入到输出的决策过程的能力产生可解释,这在学习系统中有时很棘手。生命未来研究所在 2017 年发布了 23 条人工智能原则,并得到了数千名领先的人工智能专家的认可,强调了透明度和安全性问题。该研究所强调“故障透明度”和“司法透明度”是未来人工智能发展的两个要求。简而言之,人工智能必须能够显示系统出现故障的原因,并就其做出具体决策的原因向人类提供令人满意的解释。透明度是系统设计期间的要求。

控制不会产生信任,但缺乏控制会迅速破坏以前存在的任何信任。人类感知人工智能的行为和意图,然后能够指导或改变任何系统行为的能力至关重要。如果策略、战略或目标发生变化,领导者必须能够调整行为。此外,如果人工智能表现出不正当的意图或表现不佳,人类必须能够超越其行为。尽管系统没有按要求运行,但一旦识别出危险情况,人类必须能够进行控制。透明是控制的要求,控制是信任的要求。

5.3 兵棋推演与仿真模拟

如前几节所述,兵棋推演和模拟有助于训练 AI。现实世界的事件和过去的行动结果可以调整人工智能的行为,但这只能通过特定的现实世界例子来教人工智能。如果一个场景过去没有发生过,那么人工智能将没有准备好在未来处理它。人工智能需要能够模拟以前没有收集数据的场景,以概括其学习并更好地填补存在的空白。许多类型的 AI 都需要模拟环境来测试相关场景或可能发生的场景,但在现实世界中进行测试是不切实际的。通过在模拟世界中作业项目、参数和动作,人工智能可以比现实世界更快地观察效果并强化适当的行为数量级。

5.4 灵活的自主性

灵活的自主性是指系统在有或没有人的情况下运行的能力。灵活的自主性最初可以提供 AI 实施,一套“训练轮”,直到最终系统验证发生。在最初的 AI 应用期间,人类可能会选择将很少的权限让给 AI。然后,随着人工智能学习行为和优化,人工智能可以接管越来越多的任务。灵活自主是一种隐喻的在线训练。自主性可以从人的身影转移到人进回路中,再到人在回路中,最后如果需要的话,再到人出回路中。

人的参与程度也会随着风险或在具有挑战性的情况下发生变化。图 8 显示了授权给 AI 的权限数量与时间和风险的关系。使用不同级别控制的人工智能在风险变化的领域是有益的。此外,与人类合作的人工智能可能需要在有争议的领域或敌人试图拒绝通信或访问的领域更加自主地运行。在这些环境中,灵活自主可以提供人类监督的能力,直到它被拒绝,此时人工智能就像训练有素的一样,直到重新与人类控制器通信或完成任务。

5.5 分布式执行与数据需求

由于对数据和控制的要求,人工智能的实施似乎意味着背离分布式执行。权力下放仍将是空中力量的基本原则。由于不确定性、摩擦、变化、通信限制和模糊性,分布式执行是一项要求。权力下放使机组人员能够掌握主动权,对不确定和不断变化的环境做出反应,并训练下级指挥官的灵活性。由于人工智能的实施,空中力量执行的最重要的直接变化是需要增加数据收集。如前所述,数据是 AI 学习和性能的基本要求。如果没有足够的数据收集,人工智能就无法准确感知环境并做出决策。未来的领导层可能会强调整个空中业务级别的数据收集和及时报告要求,以确保反馈循环稳健。指挥官必须向操作员清楚地表达意图并协助他们分布式执行,为他们提供适当的工具和态势感知来根据意图执行。操作员应向其指挥官提供及时准确的真实数据和可靠准确的执行,以换取下放的执行权限。

总结

空中力量的 C2 需要进行技术改造,以便在未来的战争中有效地投射空中力量。历史表明,那些适应太慢或未能预见关键支点的人将遭受失败甚至灭绝。世界正处于对人工智能巨大力量和指数级增长的开始阶段。人工智能的创新解决方案可以将空中力量的 C2 带入 21 世纪。通过建立能够超越对手的系统和决策过程,美国可以保持在空中力量使用方面的主导地位。通过在多个领域为我们的对手制造多重困境,我们可以指挥战斗——领先一步,朝着我们选择的方向前进。

开发人工智能解决方案的第一步是确定潜在的实施领域。作者选择讨论联合目标选定中的 AI 示例,但仅空中力量 C2 就有很多增强和自动化的领域。确定应用领域后,收集相关数据。人工智能需要数据来了解环境并创建简化的模型来进行预测。如果数据不可用,可能需要部署传感器并寻求其他方法来收集数据。然后,数据科学家和工程师对数据进行过滤、清理和结构化,以满足 AI 开发驱动的情境需求。所需数据的收集及其清理通常是 AI 开发中的大部分工作。

收集相关数据后,算法选择和训练创建模型来解释现实。有无数种算法和结构,没有一个“千篇一律”的解决方案可以解决每个问题。反复试验、训练和比较模型将不断地显示出问题及其解决方案的最佳方法。一旦选择了最准确和最有效的算法,就可以开始起草确定性规则,并训练模型。领导者必须确定他们将如何使用 AI 的输出以及控制级别。风险、时间和置信度都会影响委托给 AI 的自动化水平。

人工智能已经在企业界建立了强大的立足点,但空中力量几乎没有任何重要的人工智能应用的例子。为了在国际安全领域保持优势,美国必须发现和开发创新的人工智能解决方案。俄罗斯和中国正在加大对人工智能作为一项战略技术的投资,寻求“在人工智能发展的国际竞争新阶段抢占战略主动权,创造新的竞争优势。”通过利用人工智能和自主性的进步,美国可以恢复其与潜在对手的日益减弱的优势并加强威慑力。现代战争的复杂性和速度已经超过了我们的 C2 能力。拥有信息优势的一方将决定未来战争的结果,并能够通过高速决策做出即时反应,同时为敌手制造复杂而同时出现的困境。这种未来的能力远未得到保证。美国必须努力保证这种由人工智能自主和增强实现的敏捷性超越。

成为VIP会员查看完整内容
183

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
美国国防部《联合全域指挥与控制(JADC2)战略概要》
专知会员服务
281+阅读 · 2022年6月13日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
45+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
91+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
1+阅读 · 2022年6月13日
Arxiv
0+阅读 · 2022年6月11日
VIP会员
相关VIP内容
美国国防部《联合全域指挥与控制(JADC2)战略概要》
专知会员服务
281+阅读 · 2022年6月13日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
45+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
91+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员