随着人工智能(AI)的出现,传统的战争策略发生了转变,全球国防中使用的传统军事战术也随着新的人工智能技术层的加入而不断发展。这一技术层的功能不断扩展,在网络安全、自主武器系统、供应链管理、机器人技术和实时数据处理等新兴技术的应用中变得越来越重要。军事机构正在利用人工智能来提高技术性能、增强防御系统的有效性并加强决策。然而,这一进步也带来了更多挑战,尤其是在核威慑系统方面。人工智能的矛盾性质及其作为力量倍增器和破坏力量的潜力凸显了负责任的部署和发展的极端重要性。人工智能对军事战略的影响至关重要,已引起人们对未来战争以及全球安全与稳定的极大关注。
多种人工智能应用已经通过引入新技术、大数据和计算,消除人为因素并增加对机器的依赖,改变了传统的军事行动。人工智能最著名的应用之一是利用自主和半自主系统。现代无人机技术和地面机器人能够执行以前需要人力投入的任务,包括瞄准、情报、监视和侦察(ISR)。这些技术的功效和准确性极大地减少了人类的参与,并降低了与之相关的运营成本。例如,无人机可以在对广阔区域进行监视时向军事总部传输实时数据,从而使瞄准、监视和情报工作比以前更加准确和快速。这些系统自动化水平的提高使其能够提供大量战术优势,对新出现的威胁做出更快速、更复杂的反应。人工智能评估大数据分析的能力改变了军事行动中传统的决策手段。这些来自无人机、卫星和传感器的数据能够立即识别可能的风险并检测任何异常情况。它还提供了预警系统,有助于主动而非被动地做出反应。除获取信息外,人工智能还可通过评估天气模式等可能影响军事部署和战略的环境因素,协助制定作战计划。
在网络安全方面,人工智能正在积极开发新型工具,以保护关键基础设施免受网络攻击和入侵。由于机器学习算法具有自主运行和减轻网络攻击的能力,因此其检测和应对恶意活动模式的速度明显快于人类操作员。同样,预测性维护是人工智能的另一项基本应用,它通过预测潜在的故障来保证武器装备的高效运行,从而最大限度地减少延误和优化资源利用。此外,人工智能还结合了 “观察、定位、决策、行动”(OODA)循环,这在军事战略中经常被用来制定行动周期,以提高决策速度。动能战斗中的实时数据处理为军队在现代战争中提供了竞争优势,因为数据处理的速度通常是战斗胜利的决定性因素。
尽管人工智能在军事行动中具有各种优势,但其在核指挥与控制框架中的使用和整合却带来了严重的问题。当关键决策的自主权被赋予机器时,出现误读和不准确警报的可能性就会增加。人工智能的自主性使其可以在没有足够人力监督的情况下运行,系统中的任何故障或威胁评估中的任何错误都可能导致灾难性的后果。尽管这些系统的设计旨在提高精确度,但仍容易受到恶意干扰和出现错误。人工智能在核威慑中的作用已从导弹研发和部署扩展到导弹防御系统。然而,随着人工智能系统变得越来越复杂,它们也变得越来越脆弱;例如,自主瞄准可能无法识别合法目标或区分错误警报,而且永远无法区分军事和非军事目标。特别是在涉及使用核武器的危急情况下,这种故障可能会导致意外升级。
此外,一个国家在人工智能能力方面的进步可能会对另一个国家构成威胁,从而有可能引发新一轮军备竞赛,以获取更先进的武器装备。这些潜在军备竞赛的动态会增加冲突的可能性,并在技术发达国家(主要是西方世界)和其他发展中国家(又称全球南部)之间造成直接分化,从而扰乱全球战略稳定。此外,对人工智能系统日益增长的依赖也引发了核决策数据的准确性和可靠性问题。由于人工智能系统依赖于大数据分析,而大数据分析有助于人工智能系统的高效运行,因此破坏或篡改数据集可能会带来灾难性后果。利用人工智能系统的缺陷破坏核指挥控制系统可能会引发非故意行为。由于数据可能会被篡改,应用程序可能会受到敌对攻击,因此任何军事人工智能应用程序的安全措施都必须得到保护。
人工智能对国家安全的影响深远,超出了核威慑的范畴。根据联合国裁军研究所的《人工智能与国际安全》报告,“人工智能的使用可能是一个风险倍增器,因为它可能带来新的升级和紧张局势风险,特别是在国家间竞争激烈的背景下,作为国家安全的当务之急,这些能力正在被开发和利用”。国家易受间谍活动影响是依赖外国人工智能技术可能导致的重大安全风险。因此,必须通过确保人工智能能力的自力更生来保障国家主权和战略自主权。各国必须优先考虑国内人工智能研发,努力发展本土人工智能能力,这将确保其对敏感数据和关键军事技术的控制。同样,实时数据处理在确保高效和有效地利用资源的同时,也使军事力量能够做出更加明智和迅速的决策。另一方面,人工智能的快速决策能力也会带来误判的风险,尤其是在危机时期。要防止人工智能系统在高压情况下加剧冲突,“人在回路中 ”仍然至关重要,尤其是在核威慑和指挥控制等领域。
此外,优先考虑伦理因素,制定国家人工智能政策和军事、人工智能监管框架,可确保人工智能系统在当今世界保持可靠和负责任。为了降低这些相关风险,巴基斯坦在起草其国家人工智能政策(2023 年)的同时,正式提议为人工智能在军事应用中的道德使用制定国际规范和准则。该政策 “旨在超越采用技术的微不足道的方法,从根本上重新思考人工智能的采用和指导人工智能研发投资,确保以合乎道德和负责任的方式使用人工智能,并为应对相关挑战和风险提供一个框架”。巴基斯坦强调了'人在环内'进入关键人工智能决策流程的重要性,并呼吁开展多边讨论,以解决人工智能可能被滥用的问题。同样,巴基斯坦在2023年7月裁军谈判会议上提交的题为 “人工智能(AI)军事应用的安全与稳定影响,以及武器系统中的自主权 ”的工作文件中指出,“人们日益关切的是,缺乏全球规范和法律护栏来规范这些新技术的武器化,而这些新技术在区域和国际层面具有深远的安全与稳定影响”。
在国际层面,对人工智能军事应用的监管需要国际社会的合作。全球对话可以提高透明度,加强建立信任措施,有利于降低意外升级和误判的可能性。在国际层面,裁军谈判会议正在就综合裁军方案、军备透明和联合国致命性自主武器系统(LAWS)政府专家组(GGE)等倡议进行辩论,这表明人们日益认识到监管框架的必要性。这些倡议有助于规范人工智能武器的开发和部署,从而在快速发展的技术环境中促进稳定。在军事和核领域使用人工智能表明,各国在国防和安全方面的做法正在发生新的范式转变。除了人工智能的变革性益处外,其加剧安全困境和破坏常规威慑框架的能力也不容忽视。要平衡人工智能的风险和益处,就必须采取全面的方法,包括国际合作、负责任的发展,以及采取积极主动的措施来解决与将人工智能纳入军事框架相关的障碍。各国可以通过确保问责制和与国际社会合作应对人工智能军事化带来的挑战,在加强国家安全的同时降低破坏稳定的可能性。