本文认为,人工智能(AI)的能力不能有效或可靠地补充(更不用说取代)人类在理解和领悟战略环境以做出预测和判断,为战略决策提供信息方面的作用。此外,人工智能技术在各级战争中的迅速扩散和日益依赖将产生战略后果,反过来增加人类参与这些任务的重要性。因此,将人工智能技术的使用限制在战术层面的自动化决策任务上,对于遏制或控制这种综合在战争战略层面的影响没有什么作用。文章重新审视了约翰-博伊德的观察-定位-决策-行动的决策循环(或 "OODA循环"),以推进对人工智能能力(特别是机器学习方法)的认识论批判,以增强指挥和控制决策过程。特别是,文章从博伊德"定位"作为一种模式中得到启示,阐明了人类认知(感知、情感和启发式方法)在以复杂性、新颖性和不确定性为特征的非线性世界中的防御规划中的作用。它还涉及克劳塞维茨的 "军事天才 "概念--及其在 "任务指挥 "中的作用--人类认知、系统和进化理论,以考虑OODA环自动化的战略意义。

本文认为,人工智能(AI)启用的能力不能有效、可靠或安全地补充--更不用说取代--人类理解和领会战略环境,以做出预测和判断,为指挥和控制(C2)决策--分配给指挥官的权力和方向提供信息(Margaret 2014,2014;Bostrom 2014;Cantwell Smith 2019)。此外,人工智能技术(尤其是机器学习(ML))的迅速普及和对其日益依赖(Terrence 2018;Domingos 2012,85-86;Russell和Norvig 2014),以增强人类在各级战争中的决策,预示着战略后果,反过来增加人类在整个指挥链中参与这些任务的重要性。由于一些认知、地缘政治和组织因素的汇合,机器分析和综合(即预测)数据,为人类提供决策(即判断)的界限将变得越来越模糊,人类-机器决策的连续性。当机器和人类之间的交接变得不协调时,这种滑坡的说法将使强加边界或遏制人工智能支持的战术决策的战略影响的努力本身就有问题,并且更有可能产生意想不到的战略后果。

文章重新审视了约翰-博伊德的观察-定位-决策-行动的隐喻决策循环(或 "OODA循环"),以推进对使用人工智能-ML能力来增强指挥和控制决策过程的客观认识论批评(Boulanin 2020)。为此,文章从博伊德强调的 "方向"(或 "大O")中得到启示,阐明了人类认知(感知、情感和启发式方法)在国防规划中的作用,以及在一个以复杂性、新颖性和不确定性为特征的非线性世界中理解更广泛战略环境的重要性。它还涉及克劳塞维茨的 "军事天才 "概念(特别是其在 "任务指挥 "中的作用),(Howard和Paret;Grauer 2016;Beyerchen 1992-1993;Biddle 2004;King 2019),人类认知(Kahneman;Ariely,Kahneman et al. 1982;Baron 2008;Robert 2006),以及系统和进化理论(Jantsch 1980;Prigogine and Stengers 1984;Perrow 1999;Jervis 1997;Thomas 1999),来考虑OODA循环自动化的战略意义。这篇文章与最近越来越多的文献相呼应,这些文献考虑了在军事决策结构和过程中采用人工智能技术--以及自主武器、大数据、网络空间和其他与 "第四次工业革命"(Barno和Bensahel)相关的新兴技术的战略影响(Raska 2021;Talmadge 2019;Goldfarb and Lindsay 2022)。

这篇文章有助于理解人工智能在军事C2的人类决策中日益增长的作用的含义。虽然 "狭义 "人工智能系统的传播和采用在非军事领域取得了一些成功,以进行预测和支持--主要是基于线性的--决策(如商业部门、医疗保健和教育),但人工智能在军事背景下的问题要多得多(Agrawal等人,2018;Furman和Seamans,2018)。具体来说,在非线性、复杂和不确定的环境中,军事决策需要的不仅仅是大量的、廉价的数据集和归纳的机器逻辑。在指挥和控制决策中,指挥官的意图、法律和交战规则以及伦理和道德领导对于军事力量应用的有效和安全决策至关重要。由于机器不能执行这些人类固有的特征,因此在未来人工智能支持的战争中,人类代理人的作用将变得更加关键(Payne 2021;Johnson 2021)。此外,随着地缘战略和技术决定性力量刺激军队拥抱人工智能系统,以寻求先发优势并减少其在数字时代的感知脆弱性,指挥官的直觉、自由度和灵活性将被要求减轻和管理与实施军事创新相关的意外后果、组织摩擦、战略惊喜和预期破灭(Michael 2010;Stephen 2010)。

本文分为三个部分。第一部分解读了博伊德的OODA循环概念及其对军事理论的广泛贡献,特别是认知在指挥决策中的关键作用,以便在复杂的适应性组织系统动态非线性环境的大框架下理解和生存于先验的战略环境。第二节将博伊德环与非线性、混沌、复杂性和系统理论结合起来,并结合AIML技术的最新发展,考虑在人机指挥和控制决策连续体中整合人工智能工具的潜在影响。本节还考虑了在信息不完善的不可预测和不确定环境中部署人工智能-ML系统的潜在战略影响。人工智能将缓解还是加剧战争的 "迷雾 "和 "摩擦"

第二部分探讨了高强度和动态环境下的人机协作。与人类指挥官相比,人工智能将如何应对新的战略形势?它认为,在复杂和快速移动的战斗环境中,使用人工智能-机器系统来执行即使是常规的操作也是有问题的,表现出主动性、灵活性、同理心和创造性的战术领导人仍然是至关重要的。本节还将人工智能技术的技术特点与更广泛的外部战略环境结合起来。人工智能工具是否会补充、取代或取消人类 "天才"在任务指挥中的作用?最后一节考虑了AIML系统对战术单位领导人和高级指挥官之间关系的影响。具体来说,它探讨了提高态势感知和情报、监视和侦察(ISR)的人工智能工具对21世纪 "战略下士"概念的潜在影响,并将 "战术将军 "的幽灵并列起来

成为VIP会员查看完整内容
96

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《作战层面的人工智能》美国海军学院32页报告
专知会员服务
214+阅读 · 2022年12月17日
报告集《多域作战、人工智能和信息优势》120页
专知会员服务
335+阅读 · 2022年8月1日
《军事行动自动化》【译文】2022最新报告
专知
58+阅读 · 2022年11月13日
“人工智能,有必要像人类一样吗?”
学术头条
0+阅读 · 2022年7月28日
国家自然科学基金
294+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
6+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
32+阅读 · 2022年12月20日
Lifelong Learning Metrics
Arxiv
48+阅读 · 2022年1月20日
Arxiv
28+阅读 · 2021年9月18日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
Arxiv
14+阅读 · 2020年1月27日
Arxiv
11+阅读 · 2019年4月15日
VIP会员
相关VIP内容
《作战层面的人工智能》美国海军学院32页报告
专知会员服务
214+阅读 · 2022年12月17日
报告集《多域作战、人工智能和信息优势》120页
专知会员服务
335+阅读 · 2022年8月1日
相关资讯
相关基金
国家自然科学基金
294+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
6+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
32+阅读 · 2022年12月20日
Lifelong Learning Metrics
Arxiv
48+阅读 · 2022年1月20日
Arxiv
28+阅读 · 2021年9月18日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
Arxiv
14+阅读 · 2020年1月27日
Arxiv
11+阅读 · 2019年4月15日
微信扫码咨询专知VIP会员