法国、俄罗斯、英国、美国、中国等核武器国家日益认识到将人工智能(AI)融入核武器指挥、控制和通信(NC3)系统的意义。尽管风险和隐患已得到广泛承认,但在瞬息万变的核领域获得战略优势的诱惑,加上担心落后于竞争对手的人工智能创新,可能会推动这些国家竞相将人工智能技术整合到可靠性尚待验证的 NC3 系统中。
人工智能并不是一个新名词,核武器国家已经将属于这一范畴的技术整合到 NC3 系统中。但是,与当前基于规则的模型相比,当今最先进的基于深度学习的人工智能模型的可能集成带来了一系列明显不同的、更大的挑战。人们对功能强大的大型模型在影响核武器决策等关键功能方面的可靠性和适用性存在重大担忧。
欧洲领导力网络(ELN)开展的题为"研究人工智能对战略稳定的影响:欧洲和五核国的观点"。在美国国务院军控、核查与合规局的支持下,该项目确定了核武器国家如何在其 NC3 系统中使用和寻求使用人工智能技术,并探讨了这种整合的反响。
报告探讨了当今先进人工智能系统的固有风险,揭示了该技术不同分支的特点和风险。报告为通用风险评估框架奠定了基础,以分析考虑整合的模型,并为暂停将高风险人工智能系统整合到 NC3 奠定了规范和门槛基础。
在一系列秘密对话中,来自核武器国家的专家比较了他们对在 NC3 系统中使用人工智能的风险和益处的评估,以期建立防止危机情况下核升级的防范措施。
该项目的核心发现包括
核武器国家将人工智能纳入 NC3 系统的方式各不相同,反映了特定的核条令、军事文化、军民关系和道德考量。不过,它们都看到了人工智能在提高态势感知、早期威胁探测和决策支持方面的价值。
所有核武器国家都强调人类监督核决策的重要性。它们都同意让 “人在回路中 ”的概念,但不清楚它们的解释在多大程度上有重叠。
整合尖端人工智能模型,如大型语言模型,由于其不透明性和不稳定性,对战略和危机的稳定性构成了特殊风险。
核武器国家应同意迅速暂停整合高风险的人工智能模型。可在本报告介绍的风险分析系统基础上对暂停措施进行详细说明,以提供一个评分系统,对高风险人工智能系统进行分类。
对于不具有同样高风险的人工智能模型,第一轨道层面的双边倡议应围绕保留人类对核系统的控制展开。与此同时,第二轨道对话应深入探讨技术问题,如确保人类监督的实用方法。