在本文中,我们讨论了如何将人工智能(AI)用于政治-军事建模、仿真和兵棋推演,针对与拥有大规模杀伤性武器和其他高端能力(包括太空、网络空间和远程精确武器)国家之间的冲突。人工智能应该帮助兵棋推演的参与者和仿真中的智能体,理解对手在不确定性和错误印象中行动的可能视角、感知和计算。人工智能应该认识到升级导致无赢家的灾难的风险,也应该认识到产生有意义的赢家和输家的结果可能性。我们将讨论使用几种类型的AI功能对建模、仿真和兵棋的设计和开发的影响。 我们在使用或没有使用AI的情况下,根据理论和使用仿真、历史和早期兵棋推演的探索工作,讨论了基于兵棋推演的决策辅助。

1 引言

在本文中,我们认为(1)建模、仿真和兵棋推演(MSG)是相关的调查方法,应该一起使用;(2)人工智能(AI)可以为每个方法做出贡献;(3)兵棋推演中的AI应该由建模和仿真(M&S)提供信息,而M&S的AI应该由兵棋推演提供信息。我们概述了一种方法,为简洁起见,重点是涉及拥有大规模毁灭性武器(WMD)和其他高端武器的国家的政治-军事MSG。第2节提供了我们对MSG和分析如何相互联系的看法。第3节通过讨论20世纪80年代的系统来说明这一点是可行的。第4节指出今天的挑战和机遇。第5节简述了结构的各个方面。第6节强调了在开发人工智能模型和决策辅助工具方面的一些挑战。第7节得出了结论。在本文中,我们用 "模型"来涵盖从简单的数学公式或逻辑表到复杂的计算模型的范围;我们用"兵棋"来包括从小型的研讨会练习(例如Day-After练习)到大型的多天、多团队的兵棋推演。

2 建模、仿真、推演和分析的集成视图

MSG可以用于广泛的功能,如表1所示。每种功能都可以由每个MSG元素来解决,尽管相对简单的人类活动,如研讨会兵棋和Day-After练习已被证明对后两个主题具有独特的价值。

通常形式的M&S和兵棋推演有不同的优势和劣势,如表2前三栏中的定型。M&S被认为是定量的、严格的和 "权威的",但由于未能反映人的因素而受到严重的限制。M&S的批评者走得更远,认为M&S的 "严格 "转化为产生的结果可能是精确的,但却是错误的。在他们看来,兵棋推演纠正了M&S的缺点。M&S的倡导者则有不同的看法。

我们确实认识到并长期批评了正常建模的缺点。我们也从兵棋推演中受益匪浅,部分是通过与赫尔曼-卡恩(P.B.)、兰德公司和安德鲁-马歇尔的长期合作,但兵棋推演的质量从浪费时间甚至起反作用到成为丰富的洞察力来源。虽然这种见解在没有后续研究的情况下是不可信的,但来自建模的见解也是如此。

我们本文的一个论点是,这种刻板印象不一定是正确的,我们的愿望(不加掩饰的崇高)应该是表的最后一栏--"拥有一切",将建模、仿真和推演整合在一起。图1显示了一个相应的愿景。

这种理想化的活动随着时间的推移,从研究、兵棋推演、军事和外交经验、人类历史、人类学等方面开始(第1项),汇集关于某个领域(例如印度-太平洋地区的国际安全问题)的知识。这就是对棋盘、行动者、潜在战略和规则书的定性。

两项工作的进行是不同步的。如图1的上半部分,兵棋推演在进行中,为某种目的而结构化。无论图中的其他部分是否成功执行,这都可能独立发生。同时,M&S以游戏结构化模拟的形式进行。随着时间的推移,从M&S和兵棋推演中获得的经验被吸收,使用人工智能从M&S实验中挖掘数据(第4项),以便为后续周期完善理论和数据(第5项)。在任何时候,根据问题定制的MSG都会解决现实世界的问题(第7项)。如同在浅灰色的气泡中,人类团队的决策辅助工具(项目6a)和智能体的启发式规则(项目6b)被生成和更新。有些是直接构建的,但其他的是从分析实验和兵棋推演中提炼出来的知识。有些智能体直接加入了人工智能,有些是间接的,有些则根本没有。图1鼓励MSG活动之间的协调,尽管这种协调有时可能是非正式的,可能只是偶尔发生。

图1的意图可以在一个单一的组织中完成(例如,敏感的政府内工作)和/或在智囊团、实验室、私营企业、学术界和政府中更开放的持续努力计划中完成,就像图2中的DARPA研究称为社会行为建模实验室(SBML)。在任何一种情况下,这种方法都会鼓励多样性、辩论和竞争。它也会鼓励使用社区模块来组成专门的MSG组件。这与专注于一个或几个得天独厚的单一模型形成鲜明对比。直截了当地说,这个愿景是革命性的。

3 历史证明

图1的愿景的一个灵感是20世纪80年代的兰德公司战略评估系统(RSAS)(附录1指出了文件)。为了回应美国防部关于更好地利用兵棋推演进行战略分析的要求,由卡尔-鲍尔领导的兰德公司团队提出了自动化兵棋推演,它将利用那个时代的人工智能、专家系统,但它将允许可互换的人工智能模型和人类团队。这导致了一个多年的项目,我们中的一个人(P.K.D.)在1981年加入兰德公司后领导这个项目。

该项目从深入设计开始,保留了可互换团队和人工智能智能体的开创性想法,但也包括一个灵活的全球军事模型;与人工智能有关的新概念,如替代的红方和蓝方智能体,每个都有彼此的模型;代表其他各方的绿方智能体,有简单的参数化规则子模型;红方和蓝方智能体在做决定前做 "前瞻 "的能力;以及 "分析性战争计划"--代表军事指挥官的自适应插槽式脚本人工智能模型。该设计还预计:多情景分析,纳入 "软因素",如定性的战斗力,以及人工智能模型的解释能力。图3勾勒出高级RSAS架构。整个80年代都在实施。兰德公司将RSAS用于国防部的研究,例如,欧洲的常规平衡和常规军备控制的建议,并将其出口到各政府机构和战争学院。联合参谋部收到了RSAS,但事实证明连续性是不切实际的,因为一旦有适当才能的官员学会使用它,他们就会被提升到其他任务。

尽管RSAS在技术上取得了成功,但它在某些方面还是领先于时代。一方面,其创新的全球作战模型被广泛接受并用于分析和联合兵棋推演。它成为联合综合作战模型(JICM),在过去的30年中不断发展,现在仍在使用。另一方面,RSAS的人工智能部分除了用于演示外,很少在兰德公司之外使用。大多数指导RSAS工作的政府办公室对政治层面的问题没有兴趣,如危机决策、战争路径或升级。少数人有兴趣,这导致了兰德公司的研究,但在大多数情况下,他们的需求可以通过相对简单的兵棋推演来解决,包括事后演习(Roger Molander,Peter Wilson)。此外,完整的RSAS是昂贵、复杂和苛刻的。更为普遍的是,随着苏联的解体,美国防部对兵棋推演的兴趣骤然下降。

幸运的是,事实证明有可能实现 "去粗取精":用人工智能智能体进行类似RSAS的模拟,可以通过非常简单的模型和游戏获得一些重要的见解,正如最近未发表的用对手的替代形象进行核战争的工作中所说明的。

RSAS在某种程度上纳入了表2最后一栏的大部分想法,所以它显示了可行性。也就是说,它可以作为某种存在的证明。然而,那是在冷战时期,采用1980年代的技术。今天能做什么?

4 挑战与机遇

4.1 国家安全挑战

今天的国际安全挑战远远超出了冷战时期的范围。它们呼唤着新的兵棋推演和新的M&S。新的挑战包括以下内容。

  • 1、多极化和扩散

现在的世界有多个决策中心,他们的行动是相互依赖的。从概念上讲,这将我们置于n人博弈论的世界中。不幸的是,尽管诸如公地悲剧和食客困境等现象可以用n人博弈论的语言来描述,而且平均场理论有时也可以作为一种近似的方法来使用,但似乎n人博弈的复杂的解决方案概念还没有被证明是非常有用的。由于种种原因,这种解决方案并没有被广泛采用。商学院的战略课程很少使用这些技术,国防部的智囊团也很少将这些技术纳入他们的M&S中。可能是现实世界的多极化太过复杂,难以建模,尽管在战略稳定方面已经做出了一些努力。就像物理学中的三体问题一样,n方系统的行为甚至可能是混乱的。我们还注意到,随机混合策略在n人博弈中通常发挥的作用很小。同样,在计算其他玩家的行动时,可能有很多内在的复杂性,以至于随机化产生的一层额外的不确定性对我们理解未来的危机动态没有什么贡献。

与1980年代相比,有更多的国家拥有大规模杀伤性武器(即印度、巴基斯坦、朝鲜),甚至更多的国家拥有大规模破坏性武器。网络作为一种战略武器的加入,使问题进一步复杂化。在这里,人工智能可能有助于理解事件。作为一个例子,假设一支核力量受到攻击,使其用于电子控制的电力系统瘫痪(由于分散和防御,这可能并不容易)。一支导弹部队只能在短时间内依靠备用电力系统执行任务。大国肯定意识到自己和对手的这种脆弱性。在商业电力领域,人工智能对于在电力中断后向需求节点快速重新分配电力资源变得非常重要,例如2021年发生在德克萨斯州的全州范围内的冰冻温度。

  • 2、多维战争

武器装备的变化扩大了高端危机和冲突的维度,如远程精确打击和新形式的网络战、信息战和太空战。这意味着卡恩很久以前提出的44级升级阶梯现在必须被更复杂的东西所取代,正如后面6.3节中所讨论的。

  • 3、有限战略战争的可行性

一个推论被低估了,那就是现在的世界比以前更加成熟,可以进行有限的高端战争--尽管更热衷于威慑理论的人有相反的断言--其中可能存在有意义的赢家和输家。在考虑俄罗斯入侵波罗的海国家、朝鲜入侵韩国等可能性时,这一点变得很明显。出现的一些问题包括俄罗斯对 "升级-降级 "战略(北约冷战战略的俄罗斯版本)的依赖,以及网络战争和攻击空间系统的前景。因此,观察到更多国家部署跨洋范围的精确打击武器也是麻烦的。即使是旷日持久的“有限”战略战争现在也可能发生,尽管如第6.3节所讨论的那样,升级很容易发生。

  • 4、盟友和伙伴之间的目标冲突

今天的美国安全伙伴有着不同的重要利益和看法。北约在整个冷战期间表现出的非凡的团结,在现代危机或冲突中可能无法重现。在亚太地区,朝鲜和韩国、中国、日本、台湾、印度和巴基斯坦之间的矛盾关系是危机中困难的预兆。所有这些国家都有通过使用太空、网络空间或区域范围内的精确武器进行升级的选择。

这里的总体问题是,联盟仍然非常重要,但今天的联盟可能与冷战时期紧绷的街区不同。我们可能正在进入一个类似于20世纪初的多极化阶段。第一次世界大战爆发的一个因素是,柏林认为伦敦不会与法国一起发动战争,在欧洲阻击德国。这导致人们相信,战争将类似于1871年的普法战争--有限、短暂,而且没有特别的破坏性。甚至法国在1914年8月之前也不确定英国是否会加入战争。这种对自己的盟友会做什么的计算,对稳定至关重要。这里的不确定性确实是一个具有巨大意义的战略问题。

4.2 技术挑战与机遇

在考虑现代分析性兵棋推演的前景时,新的技术机会比比皆是。下面的章节列出了一些。

  • 1、基于智能体的建模

基于智能体的建模(ABM)已经取得了很大的进展,对生成性建模尤其重要,它提供了对现象如何展开的因果关系的理解。这种生成性建模是现代科学的革命性发展。与早期专家系统的智能体不同,今天的智能体在本质上通常是追求目标或提高地位的,这可能使它们更具有适应性。

  • 2、人工智能

当然,更普遍的人工智能研究比ABM要广泛得多。它提供了无限的可能性,正如现代文本中所描述的那样。我们在本文中没有多加讨论,但是在考虑M&S的未来,以及兵棋推演的决策辅助工具时,最好能有长篇大论的章节来论述有时被确认的每一种人工智能类型,即反应式机器、有限记忆的机器、有限自动机、有自己的思维理论的机器,以及有自我意识的机器。这在这里是不可能的,这一限制也许会被后来的作者所弥补。

  • 3、联网

联网现在是现代生活的一个核心特征,人与人之间、组织与组织之间都有全球联系。数据是无处不在的。这方面的一个方面是分布式兵棋推演和练习。另一个方面是在线游戏,甚至到了大规模并行娱乐游戏的程度,对这些游戏的研究可能产生国家安全方面的见解。这类游戏并不"严肃",但在其中观察到的行为可能暗示了在更多的学术研究中无法认识到的可能性和倾向性。

  • 4、模块化和特制的模型构成

现在,建立独立有用的模型(即模块)并根据手头问题的需要组成更复杂的结构是有意义的。这种组合与国防部历史上对标准化的大型综合单体模型的偏爱形成鲜明对比。在不确定因素和分歧普遍存在的情况下,这种标准化的吸引力要小得多,比如在更高层次的M&S或兵棋推演中。模块化设计允许带着对被建模的东西的不同概念。这可以打开思路,这对预见性是很有用的,就像避免惊讶或准备适应一样。也有可能将替代模型与数据进行常规比较,部分用于图2中建议的常规更新。另外,模块化开发有利于为一个特定的问题插入专业性,这是2000年中期国防部研讨会上建模人员和分析人员社区推荐的方法。

  • 5、数据驱动的人工智能/机器学习

今天,AI一词通常被用来指机器学习(ML),这只是AI的一个版本。ML已经有了很大的进步,ML模型通常可以准确地拟合过去的数据,并找到其他未被认识到的关系。一篇评论描述了进展,但也指出了局限性--提出了有理论依据的ML版本,在面向未来的工作中会更加有效,并强调了所谓的对抗性人工智能,包括击败对手的深度学习算法的战术。

  • 6、深度不确定性下的决策

规划的概念和技术取得了根本性的进展,在深度不确定性下的决策(DMDU)的标题下讨论。这从 "优化 "最佳估计假设的努力,转向预期在广泛的可能未来,也就是在许多不确定的假设中表现良好的战略。在过去,解决不确定性问题往往是瘫痪的,而今天则不需要这样。这些见解和方法在国防规划和社会政策分析中有着悠久的历史,应该被纳入人工智能和决策辅助工具中。

设计"永远在线"的系统,并不断提高智能。从技术上讲,大多数国防部的MSG都是人工智能界所谓的"转型"。该模型或游戏有一个起点;它运行后会报告赢家和输家。可以进行多次运行,并将结果汇总,以捕捉复杂动态中固有的差异。较新的人工智能模型的设计是不同的,它所模拟的系统是 "永远在线的"。这被称为反应式编程,与转化式编程不同。这些系统永远不会停止,并且不只是将输入数据转化为输出数据。例子包括电梯系统和计算机操作系统。国防方面的例子包括网络预警系统,导弹预警系统,或作战中心。这些都不会"关闭"。防御系统正变得更加反应灵敏,所以必须用模型来表示它们。这一点在1980年代RSAS的更高级别的红方和蓝方智能体的设计中已经预见到了,它们会在事件发生后'醒来',并对局势和选项进行新的评估,而不是继续按照脚本行事。

在转换型模型中,环境中的事件可能会触发程序按顺序采取某种行动。反应式模型则不同。程序在环境中同时做出改变。他们一起改变,或几乎一起改变。国防工作的一个有趣的例子涉及自主武器。人类和机器决策之间的界限已经模糊了,因为在一个反应式系统中人和机器之间的互动可能是连续和交织的。反应式系统是美国、中国和俄罗斯国防投资的一个主旨。无人机群和网络预警系统将如何在M&S和兵棋推演中得到体现?除非表述恰当,否则相关人工智能模型在模拟中的价值可能会适得其反。

然而,这仅仅是个开始。随着机器拥有更好的记忆和利用它们所学到的东西,以及它们纳入世界理论,包括对手的思想理论,人工智能将如何变化?一个令人担忧的问题是,正如Yuna Wong及其同事所讨论的那样,对人工智能的更多使用将增加快速升级的前景。这方面的风险对于专注于最大化某些相对量化措施,而不是更多的绝对结果及其定性评价的人工智能来说尤其高。以冷战时期的经验为例,执着于谁会在全球核战争中以较高的核武器交换后比率 "赢得"的分析是危险的。幸运的是,决策者们明白,结果将是灾难性的,没有真正的胜利者。即使是1983年电影《兵棋》中的计算机约书亚也明智地得出结论:"核战争。一个奇怪的游戏。唯一的胜利之举就是不玩。来一盘漂亮的国际象棋如何?无论约书亚体现的是什么人工智能,它都不只是关于如何通过数字赢得一场娱乐游戏的ML。

5 体系结构

5.1 功能要求

为现代分析性兵棋推演开发一个完整的架构超出了本文的范围,但建议一些方向是可能的。图4勾勒了一个顶层架构,表3则更详细地提出了各种特征。图4认识到,在考虑许多可能的危机和冲突时,需要深入关注至少三个主要的行为者,以解决当前时代的危机和冲突。一个例子可能是朝鲜、韩国、美国和中国。图4还要求对军事模拟采取模块化方法。

如表3所示,1980年代RSAS的一些特征可能会延续到现代化的版本。然而,许多其他特征应该有很大不同。我们认为表3是讨论的开端,而不是终点。

5.2 在巨大的不确定性和分歧中探索性分析的局限性

由于在我们的讨论中,为大规模的场景生成、探索性分析和不确定性下的决策做准备是很突出的,因此需要强调两个重要问题:

  • 只有当模拟在结构上是有效的(即只有当模型本身是有效的),不同参数值的探索性分析才是有用的。

  • 从探索性分析中得出的结论可能会有问题,当所研究的案例(情景)的可能性不一样,它们的概率是相关的,但没有很好的基础来分配概率分布。

  • 1、模型验证

正如其他地方所讨论的,模型的有效性和数据的有效性应该分别对描述、解释、后预测、探索和预测进行定性。另外,必须根据特定的问题和背景来判断它们。参数化方法有很长的路要走,但模型的不确定性常常被忽视,需要更多的关注,正如最近的一篇文章中所讨论的那样。携带目标和价值非常不同的对手模型只是这样做的一个例子。

  • 2、从探索性分析中得出结论

关于在不知道案件的相对概率的情况下如何使用探索性分析这个令人困扰的问题,我们建议探索性分析至少在表4中说明的目的上很可能有价值,这些目的都不需要概率。对于每一个例子,探索的目的是找到可能性(如脆弱性或机会),促使采取措施来防止它们,预测它们,或准备相关的适应措施。如果存在一个关键的漏洞,就应该修复它,无论它被利用的概率 "看起来 "是低还是高(如果它的概率被知道是很小的,那将是另外一回事)。

6. 决策辅助和人工智能

本节讨论了在思考建模和兵棋推演的人工智能和决策辅助工具时出现的一些问题。首先讨论了决策辅助功能。接下来讨论了在设想使用人工智能的ML版本来利用大规模场景生成时的一个挑战。最后一节讨论了开发 "认知人工智能 "和相关决策辅助工具所涉及的基本挑战之一。

6.1 兵棋推演的决策辅助

  • 1、通用功能

如果我们根据我们所看到的对玩家的重要性,而不是对人工智能提供者的兴奋点来询问决策辅助工具的主要功能,那么一些关键的功能就会如表5所示。

从科幻小说中,我们可能期望现代游戏的决策辅助工具是高度计算机化的,并由人工智能以相对个性化的形式提供信息,就像艾萨克-阿西莫夫的机器人或电影《2001》中不那么邪恶的计算机哈尔9000。然而,作者迄今为止的经验是,在游戏中 "帮助 "人类的努力往往被证明是适得其反的,阻碍了本质上人类的自由讨论。事实上,这些努力有时会因为分散注意力而使玩家生气。考虑到这一点,我们分别讨论了实用的短期决策辅助工具和更具推测性的长期目标。

  • 2、决策辅助工具的近期目标

表6提供了我们对第一栏所示的简单决策辅助工具的价值的主观估计,从低到高。这些都不涉及人工智能。相反,最有价值的辅助工具是具有简洁的检查表、信息表或图表的简单视图。评估区分了不同类型的游戏或演习,也区分了玩家之前是否接受过决策辅助工具训练的游戏。这些评价是在兰德公司与韩国国防分析研究所合作进行的一些兵棋推演实验后制定的。

关于简单决策辅助工具的另一个数据点是兰德公司同事开发的(但尚未出版)的 "奇怪的游戏"。这是一个关于核使用的高效兵棋推演,玩家代表一个战区指挥官,通过选择适当的卡片来进行游戏。该游戏建立了决策辅助工具,包括目标类别和评估选择何种目标的简单线性算术。

作为近期决策辅助工具的最后一个例子,最近的一个原型研究采用了一种低技术的方法来进行人类演习,考虑如何在危机和冲突中影响对手。该方法涉及一种定性的方法,即不确定性敏感认知模型(UCM),如图5所概述。这些机制都是定性的,通过真实或虚拟的白板和互动软件进行展示和讨论。它们包括因素树、表示有限理性的Red替代模型、影响图以及战略明显优缺点的表格比较。没有一个涉及人工智能。很明显,人工智能甚至不会有帮助。也许这是一个重要的洞察力,也许这反映了想象力的不足。现在让我们来看看长期的情况。

  • 3、人工智能增强决策辅助工具的长期雄心

从长远来看,可能会有更多的东西,我们应该从科幻小说、电子娱乐游戏、甚至主要电视网络对新出现的选举结果的实时讨论中寻找灵感。仅仅举例说明在不远的将来可能出现的功能,在每一个功能中,人工智能系统都会对查询作出反应。

  • 一个团队口头命令对 "成功之路 "进行探索性分析,包括是否有某一盟友的坚定合作。

  • 一个小组询问,鉴于最近发生的事件,对手的哪些替代模型仍然是可信的。人工智能报告反映了依赖于主观可能性函数的贝叶斯式分析,这些函数已被更新以反映最近的历史。

  • 一个考虑有限升级的团队询问了潜在的反应。人工智能帮助器显示了在以前的兵棋推演中观察到的反应,玩家被认为很好地代表了实际的决策人。它还确定了在模拟中反应不好的条件(在下一节中讨论),从而强调了条件的哪些方面需要特别注意以避免灾难。

这些猜测是最低限度的,只是为了激发人们对人工智能如何在决策辅助方面发挥作用的更多创造性思维。这个领域是开放的,从某些类型的人工智能的名称中可以看出,从反应型机器到具有有限记忆、内置心智理论和自我意识的机器,这个领域是开放的,甚至更加明显。一些主要人物,如珀尔和麦肯锡,自信地预计后者将包括意识本身。然而,那是未来的事了。佩尔将目前的机器人描述为 "像鼻涕虫一样有意识"。也就是说,蜂群武器很快就会像鸟群、鱼群和昆虫一样有 "意识"。

让我们接下来谈谈涉及人工智能与M&S的一些棘手问题。它们涉及到哪些人工智能决策辅助工具是可行的。

6.2 用于大规模场景生成的ML的问题

如前所述,机器学习类人工智能(AI/ML)有可能通过挖掘大规模场景生成的结果来寻找洞察力。然而,成功取决于(1)模拟的质量和(2)用于搜索结果的方法。

  • 1、模拟的内容是否丰富到足以代表基本的复杂性?

大量场景生成的成果可能是有用的,也可能是反作用的,这取决于基础模型是否足够丰富,结构上是否符合探索的目的。在研究可能的高端危机时,如果基础模型假设了完美的理性、认知、联盟关系,并专注于例如核武器的交换后比率作为结果的衡量标准,那么一百万种情景的数据库有什么用呢?对于军事技术目的,如部队规划,可能有价值,但对于威慑或预测实际冲突中的问题,甚至是严肃的精英兵棋推演,可能没有价值。

模型建立者所面临的挑战的某些方面是众所周知的,如认识到对决策者(性格、人格、健康)的替代概念的需要,认识到错误认知的可能性,以及允许卡尼曼和特沃斯基的前景理论和其他心理现象所描述的那种非理性决策。应对这些挑战,至少可以说是困难重重,但至少挑战是被认可的。

相比之下,军事模拟和社会行为模拟的一个肮脏的小秘密是,工作场所的模型通常不会产生黑天鹅事件、不连续现象或各种突发现象,而这些现象是研究复杂适应性系统的核心要素,在现实世界和一些大型游戏中都会出现,比如20世纪50年代的 "精英 "高级冷战兵棋推演。原因有很多,但通常是由于模型是 "脚本化的",而不是基于智能体的,或者--即使它们确实有智能体--没有给智能体足够的多样性、自由度和激励来产生现实的适应性行为,以及不允许有长尾分布的随机性。在这些问题上做得更好,对社会行为模拟来说是一个巨大的挑战,特别是对那些打算与现实兵棋推演相联系的模拟来说。一些成分包含在复杂的兵棋推演中,因此人们可以观察到,例如,联盟的解体和新集团的建立,在团队看来,这更符合他们的国家利益。今天的模拟通常不允许这样做。从推测上看,我们认为至少有两条路可以做得更好。如果可以预见感兴趣的突发现象(比如上面的联盟问题),那么就可以建立适当的对象,模拟可能会识别出何时引导它们出现或消失。但是,最重要的突发现象(包括一些在兵棋推演中出现的现象)可能无法被预期。尽管我们并不声称知道什么是必要的,但我们从过去的复杂性研究的经验中观察到,突发现象的产生往往是因为复杂的自下而上的互动、多样性和随机事件。然而,传统的高层政治军事模拟并不具备这些特征。它们的价值在很大程度上是由于它们代表了更高层次的实体和过程,大致与系统动力学的模型相类似。我们的结论是,在前进的过程中,重要的是开发多分辨率的模型系列和将它们相互联系的方法。例如,一个更高分辨率的基于智能体的模型可能有适应性的智能体,用于所有卷入危机或冲突的国家。仿真实验可能会发现(就像人类游戏一样)上面提到的那种突发行为,例如联盟的偶尔解散、侧翼切换和新的便利联盟的出现。这将是''洞察力'',然后可以导致在更高层次的模型中添加新的智能体,根据模拟中的情况激活或停用的智能体。然而,这将需要类似于最近一本关于社会行为建模的书中所讨论的 "自我感知的模拟",特别是伊尔马兹的那一章,他设想的计算可以监测自己的状态,并在必要时改变自己的结构,还有一章是作者之间关于出现的辩论。

  • 2、从大规模场景生成中提取洞察力

如果模拟足够丰富,那么有意义的大规模场景生成是可能的。但然后呢?对模拟数据进行探索性分析的一个核心挑战是了解如何评估不同情况的相对重要性。一种方法是分配主观的概率分布,但哪里能找到能够可靠地估计概率的专家,而不在前面加上诸如 "嗯,如果明天像过去一样 "的评论。现实上,专家并不是预测或概率的好来源,Tetlock及其同事已经深入讨论过了。

一种变通的方法是报告结果的频率(以百分比计算),例如,好或坏。这可以通过全因子设计或使用蒙特卡洛抽样来完成。不幸的是,存在着滑向讨论"可能性"而不是百分比的趋势,即使案例的可能性不一样。另外,在MSG的背景下,这种类型的展示掩盖了这样一个现实,即行为者不断寻找他们将获得重大优势的情景空间的模糊 "角落"。因此,在模拟中不经常观察到的情况可能正是发展中的情况。

我们建议的方法是避开明确的概率分配,而是 "寻找问题"或 "寻找成功"。也就是说,当探索性分析产生的大量数据时,人们可能会寻求找到结果非常好、非常坏或其他的条件。这在关于稳健决策(RDM)和DMDU的文献中被称为情景发现。

更进一步,我们敦促人工智能以 "聚合片段"的形式得到提示,其动机来自理论、简单模型和主题领域的专业知识。一个例子可能是 "冲突开始时的准备状态"。对于战略预警时间、战术预警时间、领导层特征、先前的军事准备状态和动员率的巨大不同组合,其数值可能是相同的。也就是说,这个变量是许多微观初始状态的集合。另一个例子(假设有合适的智能体)可能是危机发生时的心理状态,其值包括偏执狂、冷静和理性以及自信的攻击性。

鉴于足够丰富的模拟和理论为人工智能在探索性分析中提供了提示,我们怀疑人工智能可以在识别 "完美风暴 "的情况等活动中完成大量工作--不是为了预测它们,而是为了注意要避免的条件,就像在简单的兵棋推演中以低技术方式完成的那样。

  • 3、从大规模数据收集中提取洞察力

另一个ML应用可以从关于对手行动的大规模情报收集中为兵棋推演和M&S创建算法,例如那些潜艇或地面移动导弹。曾经需要几个月或几年的时间来收集和分析的东西,现在可能在很短的时间内就能得到,产生可用于兵棋推演或M&S的操作程序的算法。作为一个类比,考虑获得关于驾驶安全的洞察力。今天最深刻的洞察力来自保险公司(Progressive, GEICO),它基于可下载的软件,跟踪个人操作者:他们的速度,左转的数量,加速模式,等等。这些数据可以与信用评分和其他数据整合。其结果可以是个性化的保险费率。这样的数据分析已经是今天的现实。应该有类似的军事和MSG影响。当然,有一些必然是分类的,对于本文的政治军事重点来说,其意义不如MSG的其他应用。

6.3 认知 AI 和相关决策辅助的问题

上面的讨论集中在ML式的人工智能上,但所需要的丰富的模拟必须有智能体以更像人类的方式进行推理,这种东西可以被描述为认知型人工智能。在这一点上,决策逻辑使用的因素和推理与人类喜欢相信的东西相似,是他们实际行为的基础。

1980年代RSAS的红方和蓝方智能体是早期的例子。他们利用广泛接受的升级阶梯结构来描述核危机和冲突中的情况、选择和决策选择。

今天,我们需要新一代的更高层次的决策模型,但不存在升级阶梯的替代品。也许也不会找到替代品。当从两方博弈到甚至三方博弈时,复杂性大大增加。一个替代的概念必然会更加复杂--更像是一个n维网格而不是一个阶梯--因为升级可能不仅涉及核武器及其目标的数量,还涉及与网络战争、太空战争和精确射击的战略使用有关的数量、强度和目标。

图6简单说明了这一概念,结合了几个维度,以便人为地显示只有三个维度的结果。它显示了一个说明性的情景,开始是一场温和的常规战争(第1项),但随后依次过渡到严重的网络攻击(第2项),更广泛地使用精确制导导弹(PGMs)(第3项),有限的核使用(如箭头所示的核升级)(第4项),甚至更具破坏性的使用PGMs(如针对大坝和发电厂)。 例如,针对水坝和电网)(第5项),也许大规模杀伤性武器的水平略有提高(也许只是为了以牙还牙),以及全面核战争(第6项)。然而,今天,对于某种特定的攻击会出现在某一轴线上,以及行为者是否会有相同的评估,并没有共同的理解。不仅"客观"的答案充其量是短暂的,认知很可能取决于路径,取决于国家,并受到随机影响。规划的一个核心问题是核武近邻国家之间的长期非核战争是否可信。由于常规战争和核战争的指挥和控制系统的纠缠,这些问题变得更加麻烦。似乎预测模型,无论是否基于人工智能,都不在考虑之列,尽管产生值得担心的合理情况的模型应该在考虑之列。

对于那些寻求建立认知型人工智能模型以代表危机中的国家决策者的人来说,可能还会列出更多的挑战,但我们希望我们的例子能吸引眼球。

7 结论与建议

本文的主要建议是推荐一个研究议程,将建模、模拟、游戏和分析视为相关的和相互交织的。在这样一个综合的观点中,兵棋推演的人工智能将通过使用模型的分析来了解,这些模型包括包含了部分由兵棋推演提供的人工智能智能体。例如,这将导致具有类似于兵棋推演决策助手的人工智能智能体,以及更复杂的算法。它将导致基于兵棋推演的决策辅助工具,它将类似于将有理论依据的ML应用于由探索性分析产生的 "数据",这些探索性分析来自于利用决策智能体形式的AI的M&S。

关于人工智能本身,我们对今天的ML中常见的一些做法提出警告。我们注意到缺乏关于未来危机和冲突的可靠的信息性经验数据。此外,我们强调,在决策辅助工具和模型中使用的智能体中,都需要解释。这表明我们更倾向于由认知模型构成的人工智能,即使ML被用来填充和调整该结构。

最后,我们敦促对兵棋推演(包括小规模的活动,如事后演习)和模型所提出的问题要非常谨慎。模型、模拟、游戏和分析仍然是不完美的,有时甚至是明显不完美的,但我们有可能很好地利用它们来解决许多问题,也就是说,提高决策的质量。预测可能性有很大的潜力;可靠的预测则没有。

成为VIP会员查看完整内容
98

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《兵棋推演的使用和误用》英国国防学院2022最新12页报告
专知会员服务
71+阅读 · 2022年10月18日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年1月4日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
VIP会员
相关VIP内容
《兵棋推演的使用和误用》英国国防学院2022最新12页报告
专知会员服务
71+阅读 · 2022年10月18日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员