俄罗斯决策者普遍认为人工智能是进一步发展军事的几项关键技术之一。虽然人们普遍认为人工智能可以提高许多军事任务的效率,但对人工智能的使用及其潜在后果也存在各种担忧,包括责任问题和人工智能在目标设定功能方面的表现。
就核企业而言,作者们探讨了如何应用人工智能来改进与核武器有关的各种任务,从后勤管理和诊断到设施守卫,不一而足。重要的是,这些不同的潜在案例并不一定意味着 RVSN 的实际应用,而是反映了人们对概念化新技术如何惠及每项具体任务的普遍兴趣。虽然这些讨论经常提到人工智能系统需要可靠,但通常没有明确分析其与核指挥控制和高层决策的联系。
关于早期预警和指挥控制系统,不同作者普遍认为仍应由人类进行全面控制,尽管有些作者承认这些系统的完全自动化可能是可行的,不应将其排除在外。
在有关军备控制的辩论中,人工智能仍未被普遍认为是一个重要因素。不过,那些承认人工智能作用的作者往往认为它是一种破坏稳定的力量。因此,一些人认为人工智能应被纳入军备控制议程,尽管除了基本的建立信任措施和核国家之间交换意见外,关于控制人工智能的可能协议还没有明显清晰的愿景。然而,一些人工智能武器可能会被纳入传统的军备控制协议。
为推动五常之间就人工智能融入核C2、部队结构和决策进行对话,应考虑以下建议:
1.人工智能相关术语词汇表: 目前似乎缺乏共同语言,这不仅使有关该议题的国际讨论复杂化,也使内部讨论复杂化。各国可着手解决这一问题,编制一份有助于相互理解的共同术语汇编。一个可行的办法是扩充现有的 "五常关键核术语汇编",新增人工智能相关术语或更广泛的指挥与控制安全相关术语。
2.'恐惧映射':许多关于人工智能的辩论,特别是与核武器和一般战争有关的辩论,都充满了对可能发生的最坏情况的恐惧(例如,人工智能系统中的错误或对人工智能系统的攻击可能引发核战争)。各国可通过绘制这些与核 C2 和决策有关的恐惧来解决这一问题。这就需要集思广益,找出所有可能的恐惧和担忧,然后加以剖析,分析如何避免预期的危险。
3.不干涉的可行性:在苏联/俄罗斯与美国的双边军控中,不干涉国家技术手段由来已久。近十年来,专家们考虑是否可以扩大不干涉承诺的范围,以明确应对网络攻击;涵盖太空中的非军事资产;以及纳入更多国家。各国应讨论不干涉的理念是否可适用于核事业中使用的人工智能,例如哪些类型的目标应禁止网络攻击。
4.辅助功能与关键系统之间的依赖关系: 虽然在指挥和控制中使用人工智能可能是各国最关心的问题,但这远不是这些技术可能改变核企业的唯一方式。各国应探讨将人工智能技术融入辅助系统在多大程度上会对核指挥与控制的关键功能产生影响,以及如何降低可能的风险。
5.其他领域的人工智能风险评估和审计: 各国应借鉴其他领域的做法,这些领域的风险评估和人工智能安全审计更为成熟。特别是,它们应调查如何建立对这一过程的信心、其透明度和可解释性。这可以为关于如何测试和评估人工智能系统的一般性讨论创造空间,以及其他领域的经验教训在多大程度上可以为核决策思维提供参考。
6.人工智能的稳定用途:虽然有关战略稳定的辩论倾向于将人工智能技术视为破坏稳定的因素,但各国应探讨人工智能的使用可对它们之间的关系产生稳定作用的方式。
7.人工智能常规武器对核力量和 C2 的影响:俄罗斯文献中提出的担忧之一是,人工智能无人机可能被用来瞄准核力量或 C2 基础设施。各国应分析这在多大程度上会成为额外的不稳定因素,以及如何加以解决。
8.定期交流: 各国应同意定期举行会议,讨论人工智能与核C2和决策互动的相关问题,此外,各国应尝试将人工智能从业人员纳入此类交流,以提供更具实质性的对话。