未来趋势

  • 各国将把人工智能和机器学习(AI/ML)融入其国家安全企业,以获得超越对手的决策优势。问题将不在于算法网络是否遍及军事、情报界和外交决策机构,而在于代码行如何与作为战略核心的人类意志冲突相互作用。
  • 新技术将改变外交和战略的特点,但不会改变其本质。各国仍将把外交、经济胁迫、影响力活动与军事力量威胁结合起来,向对手发出信号,并向盟友作出保证。人类决策虽然有算法的辅助,但仍是战略制定和危机管理的核心。
  • 有关人工智能/人工智能能力的信息将影响国家管理升级的方式。战争如何改变可用于更新模型和支持人类决策的信息平衡,将继续带来升级风险。有关对手算法的情报缺口会增加升级的可能性,但只有在国家越过卢比肯河并在核门槛下作战时才会出现这种情况。

导言

在国家安全企业中采用人工智能/ML 将如何影响危机决策?例如,古巴导弹危机会以怎样的机器速度发生?

除了当前的政策辩论、国会证词、新战略以及确定、测试和评估标准的动力之外,还有一个基本问题,即计算机算法将如何影响核大国之间的危机互动。此外,在既涉及恐惧和情感又涉及理性决策的危机中,经过改进的人工智能/ML 模型是会将人们从边缘拉回来,还是将他们推向边缘?在核大国之间的危机中,人类和机器将如何互动?

为了回答这个问题,美智库CSIS 未来实验室在 2023 年初举行了一系列危机模拟,分析人工智能/ML 将如何塑造威慑的未来。这些游戏以随机对照试验的形式设计,探讨了人类对对手大国人工智能/ML 集成水平的不确定性,以及这一因素如何影响危机期间的战略稳定性。

研究得出了两大发现。首先,在所有模拟中,不同水平的人工智能/ML 能力对战略没有明显影响,而且在应对危机时,人们普遍倾向于尝试结合多种力量工具。虽然数据科学和使用人工智能/ML来增强国家力量几乎肯定会成为不久将来的一个决定性特征,但似乎有一些战略常量会在这种新技术出现后继续存在。即使机器收集和处理更多信息并帮助制定国家安全决策,外交、经济胁迫和影响力活动也将继续存在。AI/ML 将增强战略,但不会从根本上改变战略。也就是说,迫切需要开始培训国家安全专业人员,让他们了解什么是人工智能/ML,什么不是人工智能/ML,以及人工智能/ML 如何在外交政策危机中为人类决策提供支持。

其次,随着各国有选择地瞄准对手的作战网络,各国在核武器阴影下的作战方式也将发生变化。尽管对升级风险的感知不太可能受到人工智能/ML 能力平衡的影响,但用于选择灵活应对方案的标准将发生变化。各国将需要在反制对手算法与确保不会蒙蔽对手和引发 “死手 ”风险之间取得平衡--“死手 ”是苏联为发射核武器而开发的快速自动化系统--螺旋式升级。这种在军事目标选择中取得适当平衡的需要将为情报收集工作带来新的机遇,因为情报收集工作可以了解对手国家如何在战术、作战和战略层面运用人工智能/移动式计算能力。这也会改变各国的军备控制方式,新的重点是了解人工智能/ML 能力在哪些方面以及如何增强危机决策。

威慑、作战网络和人工智能/机器学习

现代威慑文献主要研究国家如何在战争之外通过威胁和承诺进行讨价还价。这些信号改变了每一方计算战争成本和收益的方式,意味着每一方掌握的有关能力和决心平衡的信息越少,就越难鼓励克制。在国家如何操纵风险以剥夺对手优势的过程中,信号和沟通起着核心作用,包括通过军事力量寻求既成事实的动机。即使是强调外交政策领导人如何处理危机外交的心理和文化先决条件的文献,也同样强调信息的核心作用。基于过去的信息(即信念如何影响预期)和有缺陷的权重(如偏见和前景理论),理性的计算会被打破。

在现代军事规划和作战中,信息是通过作战网络来管理的。进行远程精确打击和跟踪对手部队动向的能力都依赖于数据的汇总和分析。这一逻辑是联军联合全域指挥与控制(CJADC2)网络的基础,该网络旨在通过更快的通信、处理和由人工智能/机器学习(AI/ML)提供信息的决策层连接传感器和射手的分布式网络推拉数据。网络是新联合作战概念的核心,是新的制胜理论,它优先考虑在时间和空间上同步多域效应。因此,信息现在是军事力量的关键组成部分,同时也是一个国家与对手讨价还价的能力。在算法的辅助下,一个国家能够处理的信息越多,就越有可能识别机会和风险窗口,并调整目的、方式和手段,以获得相对优势。

然而,大多数关于人工智能/机器学习和未来战争的新兴文献更多关注的是风险和伦理方面的考虑,而不是讨价还价的优势。首先,有多种观点认为人工智能/机器学习将带来新的风险,包括 “闪电战”,并有可能在多个方面产生破坏稳定的影响。有观点认为,随着俄罗斯、中国和美国竞相获取改变游戏规则的技术,新的大国竞争时代将以 “残酷的恐怖平衡 ”为标志。人工智能/机器学习改变军事力量的程度,可能会影响各国对力量平衡的看法。随着对实力和影响力的认识发生变化,可能会引发不经意的升级风险。在官僚机构内部,国防规划人员可能会依赖脆性和黑箱化的 AI/ML 建议,从而造成新形式的战略不稳定。在战术层面,自主武器系统的速度可能会导致意外升级,同时也会破坏危机期间的信号承诺"。

这些说法有两个问题。首先,关于人工智能/机器学习破坏稳定作用的论点,除了文献综述、替代方案和说明性兵棋推演之外,还有待进一步探讨。换言之,有关风险和升级的假设尚未得到验证。其次,关于新兴技术和意外升级的说法往往忽略了信息增加在缓解紧张局势方面的作用。如果在作战网络中应用算法有助于减少不确定性,那么它们就有可能支持威慑。你永远无法拨开战争的迷雾,但你可以做出天气预报,描述已知、未知和不可知的情况。CSIS 未来实验室构建了 “兵棋推演实验”,以分析人工智能/机器学习如何影响战略稳定,而这一替代逻辑正是该实验的基础。

政策建议

这些危机模拟的研究结果提出了一些建议,美国及其合作伙伴和盟友网络在建立可互操作的作战网络时应考虑这些建议,因为在这些网络中,人工智能/机器学习支持战术、作战和战略层面的决策。

1.拥抱实验和敏捷思维。

国家安全界需要停止对 “天网 ”以及其他与技术相关的威胁的担忧,开始构建应用程序,帮助人们在危机期间浏览已经让工作人员和决策者不堪重负的海量信息。有必要在全球信息主导演习(GIDE)[41] 等既定工作的基础上,开展更多旨在校准如何最好地将人工智能/机器学习融入国家安全决策的实验。这些演习将作战司令部连接起来,测试它们在危机期间和向冲突过渡期间通过人工智能/机器学习(即人在回路中)在无缝战斗网络中开展工作的能力。每个全球战略发展信息网都能帮助国防部思考如何支持与新出现的条令相一致的现代作战,包括联合作战概念和联合竞争概念"。

美国需要扩大 GIDE 系列,从机构间和联盟的角度审视危机应对。这些实验应描绘从国务院到财政部等不同行政机构如何进行危机管理,以便通过汇总和分析数据做出更好的决策。从简单开始,清楚地了解每个机构如何处理灵活的威慑选项,以及国家安全委员会如何评估这些选项,这将有助于深入了解在何处以及如何以最佳方式加强战略制定和危机应对。

2.参与战役分析。

战争中永恒不变的是对信息的争夺,以及指挥官如何在收集情报的同时利用侦察和安全行动来了解态势、预测变化并寻求优势。信息争夺战将沿着人工智能/机器学习应用管理的复杂作战网络进行,这就需要新的机动、安全和出其不意的概念。一个国家如何在削弱对手的同时保护自己的作战网络,很可能成为未来战役的真正决定性行动,也是一种全新形式的 “先发制人”(schwerpunkt)。

国防部需要扩大现代战役分析的范围,探索如何与网络作战。这些研究应将历史战役见解与兵棋推演、建模和战略分析相结合,着眼于平衡军事优势与升级动态。这些研究应评估现有流程,如联合规划和联合目标定位方法,看它们在以相互竞争的战斗网络为特征的战役中是否仍然可行。研究的最终结果很可能是既能加快节奏又能谨慎关注升级风险的新流程和新方法。

3.从开放天空到开放算法,就二十一世纪军备控制展开更广泛的对话。

最后,有必要开始思考人工智能时代的军备控制是什么样的。对于未来的威慑而言,管理武器库存可能不如建立规范、制度和条约来管理针对敌对核国家现代作战网络决策和处理层的军事行动。

在危机中,各层级的软件都在寻求提高效率以加快决策速度,高级领导人有可能发现自己陷入了升级陷阱。对与预警和情报有关的关键系统的攻击可能会加速这种升级。各国越早携手绘制风险地图并建立共同理解的防护网,核对手之间无意或意外升级的可能性就越低。这些努力应包括第 2 轨和第 3 轨桌面演习和对话,为对手国如何处理危机提供信息。

结论

由于未来几年人工智能/机器学习能力在国家安全领域的使用几乎肯定会增加,因此需要就任何信息技术是否以及如何增强战略和军事决策展开更广泛的辩论。这关系重大,不能盲目走向未来。

因此,国家安全界需要加快试验如何将人工智能/机器学习融入现代作战网络,着眼于更好地理解危机决策、战役和军备控制。仅仅优化联合目标定位以及军队感知、理解和获得优势的速度是不够的。新世界需要重新思考自拿破仑以来几乎没有变化的军事参谋组织,以及传统的国家安全官僚设计和规划流程。这将需要思考如何在信息泛滥、仍存在不确定性、迷雾和摩擦的情况下为人类决策提供最佳支持。

尽管本文的研究结果表明,人工智能/机器学习既有可能发挥稳定作用,也有可能发挥破坏稳定的作用,但世界上的核国家仍有可能无意中通过编码走向世界末日。因此,必须对研究结果提出质疑,并承认研究的局限性。首先,观察结果仍然有限,可能会受到年龄、性别和每个参与者的国家安全经验类型的影响。今后的工作应扩大参与者的范围。其次,研究结果需要更多的观察,不仅要分析已知与未知人工智能/机器学习能力的平衡,还要分析风险认知和升级是否会在更多针对不同人工智能/机器学习水平的处理(如 “无人工智能/机器学习能力”、“更多人工智能/机器学习能力 ”等)基础上发生变化。未来的研究应该向更广泛的参与者开放实验,并比较普通大众与专家的看法有何不同。在理想情况下,这些游戏还应有更多的非美国玩家参与。

成为VIP会员查看完整内容
34

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《未来战争与人工智能:可见之路》52页报告
专知会员服务
63+阅读 · 5月12日
《军事人工智能和自主致命武器》最新报告
专知会员服务
34+阅读 · 5月4日
万字译文《海战中实施人工智能的挑战》2023最新报告
专知会员服务
171+阅读 · 2023年5月6日
《降低人工智能对军事决策优势的风险》2023最新39页报告
专知会员服务
100+阅读 · 2023年4月20日
《用于国家安全的人工智能:可预测性问题》65页报告
专知会员服务
61+阅读 · 2023年4月1日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
142+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
348+阅读 · 2023年3月31日
Arxiv
122+阅读 · 2023年3月24日
Arxiv
18+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员