随着人工智能(AI)在军事领域的应用日益广泛,民间社会、学术界和政策制定者对其监管的呼声也越来越高。本文认为,尽管民间社会、学术界和公众支持对军事人工智能进行严格监管,但这种监管不太可能实现,尤其是通过北约等正式组织来实现。当前乌克兰俄罗斯战争凸显了三个关键原因:与民用领域的界限模糊、民用生活的武器化,以及在自主性方面取得的实质性进展。鉴于这些因素,本文认为,短期内最可行的可能是行为层面的措施。
随着人工智能(AI)在军事领域不同应用中的使用日益增多,民间社会和政策制定者对其监管的呼声也越来越高。正式的讨论已在《特定常规武器公约》(CCW)框架内进行,而更非正式的讨论则在重大外交会议(如军事领域负责任人工智能峰会(REAIM))的框架内展开。民间社会则推动对军事领域人工智能的使用进行监管或彻底禁止,特别是在完全自主武器系统方面。学术界认为,这种禁令是必要的,通常基于自主武器和故障系统可能引发核武器使用的灾难性前景。从现有数据来看,公众舆论也支持为自主武器系统制定监管机制。
在乌克兰俄罗斯战争的背景下,人工智能对战争可能产生的影响已为许多人所认识。虽然这不是人工智能首次在战场上使用,但这场冲突凸显了人工智能可能应用的规模。乌克兰战争还与北约内部对人工智能潜在益处的日益认识相重叠。2021年10月,北约通过了其人工智能战略,启动了北大西洋防御创新加速器(DIANA)——一项旨在支持创新的倡议——并成立了一个新兴和颠覆性技术咨询小组。与北约的活跃形成鲜明对比的是,大多数北约成员国在将人工智能纳入其国家战略和武装力量方面仅采取了有限的步骤。对大多数北约成员国来说,人工智能仍然是一个遥远的未来,甚至有些新奇。这导致一些学者认为,在军事人工智能应用方面,欧洲国家可能成为规则的接受者而非制定者。例如,近几个月来,几乎所有欧洲国家都支持美国主导的《负责任军事使用人工智能和自主性政治宣言》,但并非所有国家都支持类似的欧洲主导的倡议,如REAIM。
然而,北约喜欢将自己描绘成人工智能领域的“负责任”行为者。作为一个负责任的行为者,包括对军事领域人工智能使用的潜在限制问题。然而,问题在于,是否以及在多大程度上正在考虑这一领域的潜在使用限制、监管甚至军备控制。由于人工智能的监管和限制在民间社会、专家和公众中广受欢迎,是否可能将其转化为北约的做法仍然是一个相关的问题。
乌克兰战争的教训是否会使北约国家更倾向于考虑对人工智能(AI)军事应用进行国际监管(甚至军备控制)?本文认为,尽管有许多关于监管(甚至禁止)军事AI使用的呼声,尽管北约喜欢将自己描绘为AI领域的“负责任”行为者,但这一可能性已经消失。尽管许多北约成员国在纸面上继续倡导“负责任”地使用军事AI,但“负责任使用AI”的概念目前过于模糊,无法成为真正的约束。事实上,乌克兰战争的教训表明,AI对北约来说过于重要,无论是从实际还是组织角度来看,都难以放弃。
虽然不太可能在不久的将来(甚至永远)看到一个类似“天网”(Skynet)的机器人控制的军事战场,但与AI在军事领域使用相关的许多问题仍然存在,尤其是致命性自主武器系统(LAWS)这一核心问题。基本论点是,对北约而言,乌克兰战争表明,AI(包括自主性)是一种过于重要的工具,无法被限制。这一认识对未来试图监管和限制AI军事应用的尝试具有重要意义。任何对“责任”的呼吁在很大程度上都是象征性的,甚至可能仅适用于将责任视为发展能力的义务。
本文的其余部分结构如下:第二部分概述了当前学术界关于AI军备控制的可行性(和可取性)的一些思考;第三部分回顾了北约在AI问题上的立场演变、其作为负责任行为者的自我叙述,以及限制和军备控制的潜在可能性;第四部分概述了乌克兰战争关于AI军事应用的三个教训,以及它们对北约的影响,并强调监管和限制不太可能成为未来的方向;第五部分总结了如果传统的基于条约的军备控制无法实现,未来AI监管可能会是什么样子。
近年来,北约制定了一系列人工智能(AI)治理框架。2021年10月,北约通过了其AI战略,目标是“通过增强关键AI赋能因素和调整政策,加速AI的采用”。2022年4月,北约外长批准了“北大西洋防御创新加速器”(DIANA)倡议的章程,旨在“增强联盟的技术优势”。2022年10月,北约批准成立其数据与人工智能审查委员会,该委员会于2023年2月举行了首次会议。2024年7月,北约发布了其AI战略的修订版,其中扩大了对生成式AI带来的虚假信息风险的关注。
在采用这些框架时,北约对其大多数成员国来说是先行者。当北约通过其AI战略时,大多数成员国还没有任何具体的AI军事战略。尽管近年来成员国加速了对军事领域AI的关注,北约仍在塑造其战略,就像它在其他军事活动领域所做的那样。
正如北约经常强调的那样,成为“负责任”的行为者是联盟在AI领域方法的关键要素。北约的AI战略在其对负责任使用原则的强调中明确了这一点:合法性;责任与问责;可解释性与可追溯性;可靠性;可治理性;以及偏见缓解。重要的是,这些原则并未包括对AI开发和实施的讨论或限制。这些文本中讨论的唯一法律框架是国际人道法和人权法,以及2019年《特定常规武器公约》(CCW)缔约方通过的相关指导原则。在2024年AI战略修订版中,北约最远只承诺“增加对制定国防和安全领域负责任使用AI的规范和标准的贡献”。同样,2024年11月,北约议会大会通过了一项决议,指出“在AI领域的领导地位对于保持北约的技术优势并确保AI在军事领域的负责任使用至关重要”。
现有关于北约采用AI的学术研究大多讨论了在整个北约企业中实施AI的组织、制度和技术障碍。现有研究并未详细讨论可能的限制。在我的非正式讨论中,所有受访者都强调,目前唯一的限制是由国际人道法和人权法提供的。
这显然可能导致有问题的结果。一个例子是核武器领域,这些限制已被证明是不够的。核威慑支持者经常听到的一个论点是,在某些情况下,使用核武器可能是完全合法的。支持者引用的论点是1996年国际法院未宣布使用核武器为非法的裁决。有趣的是,美国当时向法院提出的情景是“在非城市地区对少数军事目标进行少量精确的低当量武器攻击”。至少,这种情况可能会排除美国所有的洲际弹道导弹和潜射弹道导弹,以及其战略轰炸机部队的很大一部分。然而,国际法学者的广泛共识是,至少就美国目前的姿态而言,无法想象使用核武器符合国际人道法的情景。
在军事领域AI开发中,可能会出现类似的问题,即开发的武器可能很难符合现有的国际(人道)法规则。主动监管或决定不开发此类武器可以防止这种情况的发生。
北约在战争中应用人工智能的框架是在与俄罗斯的紧张关系加剧的背景下制定的,最终俄罗斯乌克兰战争爆发。人们普遍认为,乌克兰战争为未来战争提供了许多经验教训,尽管这些经验教训尚未完全具体化。谈到人工智能的军备控制,特别是北约在其中扮演的角色,本文指出了三个主要教训,它们共同说明了为什么战后出现未来人工智能军备控制的可能性较小。
从乌克兰战争中汲取的第一个--也可能是最主要的--教训是,军事部门和民用部门在一定程度上相互关联,即使不是不可能,也很难进行实际区分。这种相互联系源于人工智能是一种通用技术,而非独立的军事技术,它表现在三个方面。首先,在创新方面,民用部门往往处于主导地位,而军方往往是消费者。这与军事采购中的通常情况恰恰相反,在军事采购中,军方通常会事先确定其需求,而民用部门则生产与之相匹配的产品。其次,民用工具往往比军事需求更加匹配,这就不需要特定的军事发展计划。第三,民用工具是现成的,随时可以部署,因此从头开始开发往往毫无意义。
这一教训在乌克兰战争中得到了充分体现。小型业余无人机被用于战场观察的故事只是新兴技术领域总体趋势的一个例证。不过,这种整合也适用于人工智能。乌克兰陆军利用 Palantir(一家民用公司)提供的 MetaConstellation 软件等技术,监控俄罗斯军队的行动、补给和规划。MetaConstellation 允许乌克兰指挥部汇总来自民间商业供应商的数据,利用人工智能优化和更接近传感器的方式为乌克兰军队提供支持。数据由 Maxar、空中客车、ICEYE 和 Capella 等民用公司以及国家科研机构提供。这些公司经常提供卫星图像,包括光学图像、合成孔径图像和热图像,并支持瞄准周期。这些类型的图像具有合法的民用功能,在许多情况下最初就是为民用目的开发的。例如,ICEYE 是一所大学的分立机构,在市场上主要从事备灾工作。为监测云层覆盖下的野生动物而开发的民用解决方案目前正被用于监测俄罗斯军队的动向。这些只是军方如何利用商业技术获得军事优势的众多例子中的一部分。
人工智能帮助这些公司处理和分析海量输入数据,乌克兰士兵在战场上可以通过平板电脑访问这些数据。俄罗斯最近对一些帮助乌克兰部署人工智能解决方案的私营公司进行了网络攻击,这进一步反映了这些技术的战略重要性。
这些技术不仅无处不在,而且实际上可能更能满足当前的军事需求。例如,只有少数北约成员国的卫星能够生成分辨率高于商业供应商现成图像的图像。民用部门也有对这些图像进行分析的解决方案。因此,从北约成员国的角度来看,限制在军事部门使用这些系统不仅不可行,也不可取。此外,控制这些系统可能不仅不可能,而且还会误入歧途。冷战的教训表明,卫星的出现使各国不再担心突然袭击,从而改善了战略稳定性。乌克兰目前也存在类似的动态变化,出其不意的因素难以维持。从长远来看,这可能会产生稳定作用。
然而,由于数据分析和处理的速度大大提高,人工智能系统(以及这种速度)被视为军事决策的关键。因此,这些商业民用服务所提供的决策速度被视为生死攸关的问题,而避免使用则被视为不负责任。人工智能在规划、后勤和维护方面的优势尤其难以抵挡。正如英国战略司令部司令霍肯霍尔将军所言,在当前的乌克兰战争中,我们'看到人工智能与商业应用软件并用,提高了行动速度。它还提高了实用性"。
因此,从乌克兰战争中得到的第一个教训是,与人工智能相关的军备控制既难以想象,又可能被视为适得其反。军事部门与民用部门的相互关联意味着这一领域的军备控制前景依然暗淡。
近年来,人类生活各个方面的 “武器化 ”趋势日益明显。法雷尔和纽曼谈到了相互依存的武器化,而加莱奥蒂则更进一步,谈到了 “万物武器化”。事实上,现代人类生存的几乎所有方面都可以被用于军事目的,这一点在乌克兰战争中得到了充分证明。
一个很好的例子是,乌克兰使用 Clearview AI 人脸识别软件(该软件根据从社交媒体上截取的照片进行训练)来识别俄罗斯士兵(无论死活)并打击错误信息。乌克兰软件公司 Primer 修改了其语音转录软件,以处理截获的俄罗斯士兵电话(他们通常使用普通电信网络与家人和朋友联系)。人工智能可以帮助即时处理、选择和输出对军事有用的信息。乌克兰军方还开发了可供广大公众使用的应用程序,以提醒军事指挥官俄罗斯军队的确切位置。标准化聊天机器人也用于类似目的。与民用传感器网络相结合,可以实现情报的众包,并促进人工智能驱动的处理。不过,乌克兰并非唯一依赖这些工具的国家;正如媒体报道所示,俄罗斯曾利用欺骗电话诱骗乌克兰人给武装部队中的家庭成员打电话,随后再将他们作为炮击目标。
在欧洲,这些人工智能的某些用途是非法的。数据保护法规,尤其是欧盟的《通用数据保护条例》(GDPR),禁止上述某些措施,如从社交媒体上获取照片和在没有搜查令的情况下监控通话。但这并不意味着此类策略永远不能在欧盟领土上使用,在这种情况下,如果欧洲军队要遵守《一般数据保护条例》,就会处于不利地位。以权利为导向、以人为本的监管模式迟早会与人工智能系统的 “万物武器化 ”方法相冲突。
万物武器化,以及任何手机都能成为输入人工智能系统的传感器这一事实,意味着对这些系统的监管即使不是不可能,也将是困难的。大量的数据将使通过人工智能处理这些数据的动力更加强劲。人们可能会认为,这些 “公民传感器 ”收集的数据用处太大,不值得放弃。同样,由于这些技术与实际致命行动仍有距离,而且信号情报并不新鲜,因此 “万物 ”武器化的好处很可能会被认为过于诱人而被放弃。
从乌克兰战争中汲取的前两个教训也凸显出,要想在未来对人工智能采取重大军备控制措施普遍存在困难。正如最近的理论文献所指出的,如果民用和军事应用难以区分,如果军事企业和民用经济融为一体,军备控制的可能性就会降低。这两种情况都适用于乌克兰战争。这突出表明,不仅人工智能军备控制总体上很困难,而且北约参与军备控制的动力可能更加有限。
乌克兰战争带来的第三个教训与第一个教训有关。如果利用民用部门的发展,通过压缩时间提供决定性的决策优势,这可能会削弱阻止完全自主武器系统(即能够 “在没有人类干预的情况下选择并对目标使用武力 ”的系统)发展趋势的呼声。
目前,乌克兰不仅将人工智能用于分析,还用于预测和处方,包括发现目标和确定优先次序。Kropyva 应用程序可帮助乌克兰官员筛选数据,一旦选定目标,就会自动优化与之交战的方式。其中许多步骤都是本着优化决策的精神采取的,目的是 “更快、更准 ”地瞄准敌人。在许多其他领域,结论似乎是,尽管数据质量可能并不完美,但性价比使人工智能的使用物有所值。
不过,乌克兰防御者已经在尝试使用人工智能驱动的无人机猎杀系统(如 Fortem 的 DroneHunter F700)来拦截和锁定敌方派来攻击乌克兰能源设施的无人机。在一些行动中,乌克兰还使用了自主舰艇、水下无人机和无人驾驶飞行器。多位观察家指出,乌克兰的军事系统拥有部署完全自主武器系统所需的组件。在北约的一次军事演习中,模拟了与乌克兰类似的无人机攻击,观察员注意到 “在反无人机无人机部署之前,士兵就已经被杀死了”。
人工智能系统的速度显然为进一步发展提供了诱人的动力。目前,这些系统都不是为了杀死人类而设计的,而这正是致命自主武器系统的关键定义要求。不过,在这些系统中加入这种能力目前肯定是可行的,而且这样做的压力可能会持续存在。人工智能解决方案的提供商都意识到其产品所带来的优势。Palantir 公司首席执行官亚历克斯-卡普(Alex Karp)认为,“现在,先进算法战争系统的威力已经大到相当于拥有战术核武器来对付只有常规武器的对手”。有趣的是,研究数据科学的军事专家认为,这样做的好处可能比人们通常认为的要多,而风险则被夸大了。
当然,这也提出了一个问题,即 “有意义的人为控制 ”这一概念究竟意味着什么?乌克兰的局势反映了人为控制与人为判断之间的两难选择。根据新闻报道,发现敌人、决定与之交战并实施打击的整个过程只发生在短短几分钟内。导致做出此类决定的情报--例如从商用无人机或卫星图像中获取的情报--不一定总能得到证实。如上所述,许多此类系统在决定如何攻击目标时往往是指令性的。这突出表明,虽然人类可能参与其中(从而满足了人类控制的标准),但人类是否做出了判断可能并不明确。
支持将人工智能用于军事目的的人主要提出三类论点。首先,他们认为我们永远不可能拥有完美的信息,而人工智能系统据以做出决策的信息往往比人类情报或其他更传统的情报来源更好、更完整。第二个论点是,错误、失误和 “附带损害 ”在任何情况下都会经常发生。最后,他们认为,对人工智能的偏见正在发挥作用,因为机器的标准与人类不同。在某种程度上,这些论点与有关自动驾驶汽车的讨论相似。在这项研究中,涉及死亡的事故(在使用自动驾驶时不可避免)也被证明对公众舆论产生了强烈的负面影响。虽然有关致命性自主武器系统观点的可比研究有限,但目前的数据表明,在所有条件相同的情况下,随着武器系统自主性的提高,公众对致命性自主武器系统的接受度会降低。
乌克兰战争表明,各国军队正在采取越来越多的措施实现自主化。例如,旨在保护关键基础设施的系统已经开始使用自主性。借用核军备控制中的一个术语,我们目前正处于一种 “潜伏 ”状态,即国家拥有制造武器所需的一切要素,但尚未研制成功。在核领域,“潜伏 ”指的是一个国家拥有研制核武器所需的一切条件,只要它愿意,因为它拥有大部分(如果不是全部)必要元素。在人工智能领域,“潜伏期 ”指的是一个阶段,在这一阶段,开发真正自主武器系统所需的全部(或几乎全部)要素都已具备,尽管尚未做出这样做的决定。
当然,潜伏期并不自动意味着达到潜伏期的国家会选择获取武器系统。然而,它确实意味着必须有一个决定不走这条路的积极过程,这个过程可能来自国内专家组,也可能来自国外的压力。人们可能会问,在更大规模地部署自主权之前,这种压力是否有可能及时出现。
本文考虑了北约在有关人工智能军事应用的讨论中成为相关行为体的可能性,特别是考虑到乌克兰战争。正如所论证的那样,北约总是不太可能参与军备控制--它是一个有强烈的制度和政治理由不参与此类讨论的组织。然而,乌克兰战争进一步降低了北约参与这些讨论的可能性,原因有三:(i) 战争表明民用和军事部门之间的界限非常狭窄;(ii) 战争导致 “万物武器化”,包括民用生活的许多方面;(iii) 战争鼓励了探索军事系统自主性的步骤,在一定程度上表明自主性现在更多的是一种选择而非手段。在当前的战争中,人工智能的使用是否为乌克兰带来了重大战略优势,只有未来的研究才能证明,这些使用清楚地表明,在军事领域实施人工智能可以带来切实的战术军事优势。
因此,关于北约将成为人工智能领域 “负责任 ”的行为体的说法必须有所保留。北约不会成为一个推动军备控制和监管的负责任的行为体,而那些主张限制人工智能在军事领域应用的人却倾向于这样做。相反,北约及其成员正在成为一个将安全可靠地部署人工智能视为己任的行为体。从这个意义上说,北约内部的责任这一结论会让那些希望北约国家采取更有力的人工智能监管措施的人感到失望,因为这可能需要北约本身的参与。
虽然有关公众对人工智能武器看法的研究尚处于起步阶段,但有关公众对致命自主武器系统态度的新兴研究表明,随着自主程度的提高,公众对使用武器持反感态度。同样,公众也可能认为使用自主程度较高的武器系统不道德。因此,公众对人工智能武器的看法相对不那么乐观。
如果联盟(及其成员)不想认真考虑人工智能军备控制问题,但公众又认为这种措施是可取的,那么各国政府可能会更容易采取象征性调整政策。在核军备控制领域,象征性调整早在 20 世纪 90 年代就已被描述为政府在不损害核心政策问题的前提下为满足公众要求而采取的措施。
其中一种象征性调整可能是采用行为方法进行军备控制。行为方法最近在核军备控制中得到了探索,以替代传统的以条约为基础的军备控制,而传统的军备控制目前正处于紧张状态。即使是军备控制条约的坚定支持者,最近也主张以行为方式进行军备控制。事实上,欧洲决策者提出行为军控的想法已有一段时间。
行为军控的一个关键要素是,它限制行为,但不要求核查。它依靠的不是核查,而是行为线索--重要的是政治压力和权衡。行为军控过去曾因缺乏执行机制而饱受批评,但现在学者们认识到,社会约束实际上可以提供重要的防护。