首先回顾并简要评述了当前的军事人工智能形势。然后,转向迄今为止在很大程度上被忽视的人工智能驱动系统影响国家层面诉诸武力决策的前景。虽然此类系统已经对发动战争的决策产生了有限而间接的影响,但它们将越来越多地以更直接的方式影响此类决策--无论是在自动自卫的背景下,还是通过为人类决策提供信息的决策支持系统。本文引证了人工智能系统在其他决策领域的不断扩散,再加上人们认为有必要在人工智能 “全球军备竞赛 ”中与潜在对手的能力相匹配,这种发展是不可避免的,很可能会在不久的将来出现,并有望产生重大影响。在概述了与这一预期发展相关的四个主题之后,预览了构成本特刊的十二篇多元化、多学科文章。每篇文章都涉及我们提出的四个主题之一,并探讨了人工智能技术渗透到战争决策中的重大风险或益处。

如果由智能机器来决定国家是否参与战争呢?从某种意义上说,这只是科幻小说的内容,或者说是对未来技术如何发展、如何超越我们的能力并掌握控制权的长期猜测。然而,从另一个更细微的角度来看,这是一个非常可信的现实,与我们现在拥有的技术相兼容,很可能在不久的将来以某种形式实现(考虑到其他领域可观察到的发展),而且是我们心甘情愿地逐步实现的前景。

本文将探讨人工智能介入诉诸武力的决策这一完全可以想象的前景所带来的风险和机遇。将回过头来简要评述一下当前的军事人工智能形势,然后再探讨人工智能预期影响这一在很大程度上被忽视的领域。然后,将强调与人工智能技术渗入战争决策相关的四个主题,然后预览与这些并发症相关的十二篇不同的、多学科文章。

当前背景

人工智能(AI)--不断发展的机器模仿人类智能行为的能力--已经从根本上改变了有组织的暴力行为。人工智能已经并正在越来越多地融入各种军事功能和能力。例如,围绕澳大利亚、英国(UK)和美国(US)“AUKUS ”协议发布的官方文件概述了人工智能在先进军事能力中发挥的日益重要的作用,包括对 “弹性和自主人工智能技术(RAAIT)”的承诺,根据该承诺,"‘AUKUS’合作伙伴正在提供人工智能算法和机器学习,以加强部队保护、精确瞄准以及情报、监视和侦察。(AUKUS 国防部长引文2023)人工智能在军事能力中的扩散不仅对武器系统的实用性、准确性、杀伤力和自主性产生深远影响(例如,见 Scharre 引文2024),而且人工智能与先进武器系统的交叉被认为会对军事力量平衡产生严重影响(例如,见 Ackerman 和 Stavridis 引文2024)。事实上,人工智能已被视为谋求军事优势的关键所在,并在当前关于维护军事优势的思考中占据中心位置。正如一份分析报告所解释的那样,人工智能 “将使美国能够部署更好的武器,在战斗中做出更好的决策,并释放出更好的战术”。(布坎南和米勒引文 2017, 21)用美国前国防部副部长米歇尔-弗卢诺伊(引文 2023)的话说,“人工智能正开始重塑美国的国家安全”。

军事人工智能的重要性与日俱增,其利用也日益广泛,与此同时,人们对其使用可能带来的潜在风险和不良后果也感到担忧。一个充满人工智能的决策世界和随之而来的压缩时间表,再加上智能自动化甚至完全自主的武器,在带来军事优势的同时也带来了危险。这促使人们试图制定规则和限制,至少可以约束人工智能的某些军事应用,并力求将危险或不良结果降至最低。这种监管不仅仅是一个学术问题。大量证据表明,各国政府也越来越关注人工智能在军事领域的应用所带来的广泛风险。2023 年 2 月在海牙举行的 “军事领域负责任的人工智能 ”国际峰会发表了 “关于负责任地在军事领域使用人工智能和自主权的政治宣言”,截至 2024 年 2 月,该宣言已得到 50 多个国家的认可(美国国务院引文2023)。该声明包括一系列旨在促进安全、谨慎地使用军事人工智能的可取措施,其中包括 “在负责任的人类指挥和控制链内 ”使用人工智能的主张(与本特刊通篇讨论的一个问题有关)(美国国务院引文 2023)。

澳大利亚国防部长理查德-马尔斯议员在宣布澳大利亚将于 2023 年 11 月加入该宣言时重申,澳大利亚承诺 “积极参与国际议程,以负责任的方式研究、开发、部署和应用人工智能”(澳大利亚政府引文 2023)。此外,美国总统乔-拜登和澳大利亚总理安东尼-阿尔巴内塞于2023年10月在华盛顿特区会晤后发表联合声明,申明 “各国应采取适当措施,确保负责任地开发、部署和使用其军事人工智能能力,包括实现自主功能和系统的能力”(澳大利亚总理引文2023)。当然,要切实采取这些措施,就必须了解--并预测--人工智能系统在军事环境中的各种应用方式。

最后,必须承认,军事人工智能与核武器并存的幽灵最近引起了人们的关注和担忧。人工智能在核武器领域的应用引发了大量分析和担忧,原因显而易见,其潜在风险是如此巨大(例如,见 Kaur Citation2024;Shaw Citation2023;Parke Citation2023)。正如 Depp 和 Scharre 严正指出的那样,“在核行动中正确使用人工智能可能会产生毁灭世界的影响”(Depp 和 Scharre 引用 2024)。美国在其 2022 年《核态势评估报告》中宣布,作为一项政策,在任何涉及使用核武器的决策中,人类都将无一例外地参与其中(美国国防部引文 2022,13)。一个基本的担忧是,人工智能可能会以自动反应能力的方式融入核指挥与控制,这可能会加强威慑,但也会增加意外升级或失控的风险。由于担心人工智能的引入会给核指挥与控制带来新的漏洞,人们呼吁制定规范和准则,以限制核不稳定性以及可能随之而来的对核威慑的威胁(Avin 和 Amadae Citation 2019)。

总之,人工智能对武器系统的性能、军事行动的开展以及军事力量的弱点和优势的影响非常重要。这些发展对未来战争具有严重影响(如果仍不确定的话),并引起了学术界、国家领导人和普通公众的关注。然而,由人工智能驱动的军事工具激增所引发的思想发酵和政策审议主要集中在因此而使用(和改变)武力的方式上,而不是这种新兴技术组合如何可能为国家是否以及何时参与战争的决策提供信息(并可能改变决策)的问题上。要讨论的正是后一个问题。

被忽视的前景

学术界和政策制定者的关注点主要集中在战争中人工智能系统的使用上。其中最突出的包括正在出现的 “致命自主武器系统”(“LAWS”--或更通俗和挑衅性的 “杀手机器人”)和决策支持系统,其形式是依靠大数据分析和机器学习来推荐无人机袭击和轰炸目标的算法(如最近引起关注的以色列在加沙的行动(Abraham Citation2024;Davies, McKernan, and Sabbagh Citation2023))。相比之下,试图探讨的是在商议诉诸战争的各个阶段和层面使用人工智能工具这一相对被忽视的前景。

换句话说,将从战场上的人工智能转向战争室中的人工智能。从士兵选择和攻击目标(以及授权和监督智能机器选择和攻击目标)的决策,转向国家层面关于发动战争和军事干预的决策;从战时法(jus in bello)转向诉诸战争法(jus ad bellum)的考虑(用正义战争传统的语言);从国际人道法裁定的行动,转向受《联合国宪章》禁止诉诸武力及其明确例外规定约束和纵容的行动。

重点的转移至关重要。它预示着国家在做出战争决定时不可避免的变化。之所以预测人工智能将渗透到诉诸武力的决策过程中,部分原因是人工智能驱动的系统(包括预测性机器学习算法)在其他许多领域不断扩散,以帮助决策制定。从招聘、保险决策、医院医疗诊断和福利分配,到警务实践、商用飞机驾驶舱支持和累犯可能性判断,都需要依靠此类系统。总之,人类的决策越来越依赖于人工智能的帮助。此外,在日益高速、始终高风险的战争环境中,需要与潜在对手的能力相匹配,这也助长了最新的 “全球军备竞赛”(Simonite Citation2017)。虽然人工智能系统目前在国家层面的诉诸武力决策中只发挥了有限和间接的作用,但相信,它们将逐步以更直接的方式影响此类决策。现在,通过研究人工智能逐步干预诉诸武力决策的前景,就有可能确定使用这些技术的益处和风险,同时还有时间分别找到加强或减轻这些益处和风险的方法。

这些考虑因素的严重性怎么强调都不为过。正如阿什利-迪克斯(Ashley Deeks)、诺姆-卢贝尔(Noam Lubell)和达拉-默里(Daragh Murray)(引文2019, 16)挑衅性地提出的:如果说机器被赋予 “决定 ”杀死一名敌军士兵的权力的可能性充满了伦理和法律争议,那么又该如何看待机器最终决定一个国家是否参战,从而影响成千上万或数百万人生命的可能性呢?

当然,智能机器 “决定 ”一个国家是否参与战争可能意味着不同的事情。撇开科幻小说中的场景和长期的未来主义猜测不谈,目前的人工智能驱动系统可以通过两种方式对诉诸武力的决策产生影响。首先,人工智能决策支持系统可用于为是否参战的讨论提供信息。在这种情况下,人类决策者将利用算法建议和预测来做出诉诸武力的决定。在人工智能辅助收集和分析情报方面,这种情况已经开始出现,至少是间接地出现在组织层级和指挥系统中。另外,人工智能驱动的系统本身也可以计算和执行诉诸武力的决定,例如在防御网络攻击的情况下。此外,令人担忧的是,人工智能驱动的自动核反应首次打击的建议也被酝酿和威胁,特别是在斩首攻击的情况下。(据报道,苏联留给俄罗斯的 “死手 ”发射系统仍在使用,因此这种可能性并非不可想象。俄罗斯的 “周边 ”系统在 Depp 和 Scharre Citation2024 中有所描述;另见 Andersen Citation2023,12)。在这种情况下,人工智能自主系统将决定并实施行动方案--无论是否有人类监督。这两类情况都是可预见的(而且很可能是在不久的将来),需要立即关注。

四个复杂因素

这些人工智能驱动的系统能够分析大量数据,通过发现人类决策者无法感知的数据模式提出建议和预测,并以望尘莫及的速度和效率对潜在攻击作出反应,尽管它们具有种种潜在优势,但挑战也层出不穷。2023 年 6 月 29 日至 30 日,在澳大利亚国立大学(ANU)举行了题为 “预测未来战争:人工智能、自动化系统和诉诸武力决策 ”的研讨会,该研讨会促成了本特刊的出版。

复杂因素 1 涉及人工智能驱动的诉诸武力决策中人类判断的替代,以及对威慑理论和冲突意外升级的可能影响。当编程建议--或独立计算和实施--对特定情况做出反应时,智能机器的行为会与人类代理人不同。这种差异可能会挑战我们对威慑的理解。目前对一个国家是否愿意诉诸武力的看法是基于对人类判断力、决心和忍耐力的假设,而不是机器生成的结果。此外,在某些情况下,人工智能系统被委以独立应对侵略的任务,将以人类行为者无法达到的速度做出并执行决策,从而加快决策周期。它们似乎还可能曲解人类的信号(例如,关于缓和冲突的愿望)。这两个因素都可能导致在人类决策者本应保持克制的情况下,诉诸武力却在无意中升级,并可能造成灾难性后果(例如,见 Wong 等人,Citation2020,第 7 章和第 8 章)。

复杂因素 2 强调了自动化偏差可能产生的影响。实证研究表明,依赖人工智能驱动系统的个人和团队往往会出现 “自动化偏差”,即倾向于不加质疑地接受计算机生成的结果(Cummings Citation2006;Citation2012;Mosier and Fischer Citation2010;Mosier and Manzey Citation2019;Skitka, Mosier, and Burdick Citation1999)。这种倾向会使人类决策者不太可能利用自己的专业知识和判断力来检验机器生成的建议。自动化偏见的有害后果包括接受错误、人类行动者的非技能化--包括 “道义上的枯竭”(Vallor Citation2013),以及正如一位在本文集和其他地方所论证的,在战争中 “错位责任 ”的推广(与其他因素一起),或者说智能机器可以为必然是人类的决策及其结果承担道义责任的危险误解(Erskine Citation2024a, 551-554; Citation2024b)。

复杂因素 3 涉及算法的不透明性及其对民主和国际合法性的影响。机器学习过程经常是不透明和不可预测的。受其指导的人往往不理解预测和建议是如何得出的,也不了解它们的局限性。目前,许多人工智能驱动的决策都缺乏透明度,这导致了一系列负面影响(Knight Citation2017;Pasquale Citation2016;Citation2017;Vogel 等人 Citation2021)。由于政府的民主和国际合法性要求对诉诸战争的决定提供令人信服且易于理解的理由,当机器为此类行动提供信息或独立计算和实施此类行动时,这种缺乏透明度的情况会带来严重的问题。

复杂因素4 涉及人工智能系统加剧组织决策病态的可能性。国际关系(IR)和组织理论的研究都揭示了组织决策的现有复杂性和 “病态”(在国际关系领域,例如参见 Barnett 和 Finnemore Citation 1999)。人工智能驱动的决策支持和自动化系统介入这些复杂的结构有可能会放大这些问题。它们对国家甚至政府间决策的贡献可能会扭曲和扰乱战略和行动决策过程及指挥系统。

成为VIP会员查看完整内容
21

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《解码人工智能的结构性风险动态》
专知会员服务
32+阅读 · 7月13日
《重新思考战斗人工智能和人类监督》
专知会员服务
70+阅读 · 5月5日
《生成式人工智能模型:机遇与风险》
专知会员服务
66+阅读 · 4月22日
《人工智能:美国国防部面临的挑战和机遇》
专知会员服务
86+阅读 · 2023年4月22日
《综述:数字孪生在攻击性军事网络战中的应用》
专知会员服务
92+阅读 · 2023年3月12日
国家自然科学基金
103+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
13+阅读 · 2009年12月31日
A Survey of Large Language Models
Arxiv
385+阅读 · 2023年3月31日
Arxiv
64+阅读 · 2023年3月26日
Arxiv
133+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关VIP内容
《解码人工智能的结构性风险动态》
专知会员服务
32+阅读 · 7月13日
《重新思考战斗人工智能和人类监督》
专知会员服务
70+阅读 · 5月5日
《生成式人工智能模型:机遇与风险》
专知会员服务
66+阅读 · 4月22日
《人工智能:美国国防部面临的挑战和机遇》
专知会员服务
86+阅读 · 2023年4月22日
《综述:数字孪生在攻击性军事网络战中的应用》
专知会员服务
92+阅读 · 2023年3月12日
相关基金
国家自然科学基金
103+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
13+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员