一名乌克兰军人,带有四轴飞行器控制面板,带有操纵杆和屏幕。图片由 dvoinik 通过 Adobe Stock 提供
近14年来,以色列特工一直以伊朗顶级核科学家穆赫森·法赫里扎德(Mohsen Fakhrizadeh)为目标,他监督了一项制造核弹头的秘密计划。2020 年 11 月 27 日,以色列情报官员暗杀了这位科学家,此举震惊了世界。法赫里扎德和他的妻子离开了里海海岸,乘坐四辆汽车的车队前往他们在伊朗乡村的家。当他们接近掉头时,一连串的子弹击碎了他们的挡风玻璃,并反复击中了法赫里扎德。
实施暗杀的以色列特工枪手使用了遥控机枪,从1000多英里外触发。摩萨德定制了一支比利时制造的步枪,该步枪配备了先进的机器人设备,可以安装在皮卡车的床上,并配备了一系列摄像头,可以全面了解目标和周围环境。为了解释向武器传输信号的延迟,摩萨德使用人工智能软件来考虑时间滞后、每颗子弹发射时卡车的晃动以及法赫里扎德车辆的速度。
该操作不是异常,而是创新到来的预兆。大大小小的国家都在竞相购买先进的无人机,整合算法瞄准分析,并开发一系列自主的陆基和海基武器,所有这些都几乎没有监督或限制。因此,各国迫切需要就这些工具在战争中的开发、部署和使用达成一致。
为了加强监督和可预测性,专家和政策制定者应该考虑领先的人工智能大国可以采取哪些措施。美国可以带头承诺对自己的人工智能武器开发进行监督。它还可以与其他国家合作,建立一个独立的专家监测小组,密切关注人工智能在战争中的使用情况。最后,各国应该坐到谈判桌前,在为时已晚之前决定新兴军事技术的使用规范。
从乌克兰到加沙。与国家安全相关的人工智能系统应用范围广泛,但大致可分为上游任务(情报、监视和侦察、指挥和控制、信息管理、后勤和培训)和下游任务(目标选择和参与)。具体而言,人工智能应用使军队能够增强分析能力,以汇总和分析战场数据,并增强作战能力,以进行导弹打击和部署自主人工智能无人机。
一些专家认为,美国不能阻碍发展完全自主武器的进展,以免俄罗斯等大国超越他们的发展。可以肯定的是,人工智能功能正在迅速激增。正如乌克兰战争和加沙的敌对行动所表明的那样,如果没有一个共同的框架和商定的限制,各国就有可能竞相触底,在几乎没有限制的情况下连续部署更具破坏性的系统。
当前的乌克兰战争被描述为“发明的超级实验室”,它为科技公司和企业家提供了直接在战场上测试新工具的机会。这场冲突揭示了战争方式的重大转变。最重要的变化之一是引入了综合战斗管理系统,该系统提供了有关部队调动和位置的最新透明度 - 一直到基本单位级别。“今天,一列坦克或一列前进的部队可以在三到五分钟内被发现,再过三分钟就会被击中,”乌克兰军事情报部门高级官员瓦迪姆·斯基比茨基少将警告说。“移动中的生存能力不超过 10 分钟。”
乌克兰前线被无人驾驶飞行器淹没,这些飞行器不仅可以持续监控战场发展,而且当与人工智能驱动的瞄准系统相匹配时,还可以近乎瞬间摧毁军事资产。自然,俄罗斯人和乌克兰人都转向反无人机电子战,以抵消无人机的影响。但这带来了另一个发展——快速推动完全自治。正如军事学者T.X.哈姆斯(T.X. Hammes)所写的那样,“自主无人机不会与飞行员建立脆弱的无线电链路,也不需要GPS制导。自主性还将大大增加一次可以使用的无人机数量。
军事人工智能同样正在塑造加沙的战争。在哈马斯武装分子通过中和该国“铁墙”的高科技监视能力震惊了以色列军队之后 - 一个40英里长的物理屏障,配备了智能摄像机,激光制导传感器和先进的雷达 - 以色列已经收回了技术主动权。以色列国防军(IDF)一直在使用一种名为“福音”的人工智能瞄准平台。据报道,该系统在持续的入侵中发挥着核心作用,为识别和攻击目标提供“自动建议”。该系统于 2021 年在以色列与哈马斯为期 11 天的战争期间首次启动。对于 2023 年的冲突,以色列国防军估计在战争的前 35 天内袭击了加沙的 15,000 个目标。(相比之下,以色列在2014年长达51天的加沙冲突中击中了5,000至6,000个目标。虽然福音提供了关键的军事能力,但平民伤亡令人担忧。一位消息人士将该平台描述为“大规模暗杀工厂”,强调目标的数量而不是目标的质量。还有一种风险是,以色列对人工智能定位的依赖导致了“自动化偏见”,即在人类会得出不同结论的情况下,人类操作员倾向于接受机器生成的建议。
国际共识可能吗?正如乌克兰和加沙战争所证明的那样,敌对军队正在争先恐后地部署自动化工具,尽管对在战场上部署未经测试的技术的道德界限缺乏共识。研究表明,像美国这样的主要国家致力于利用“所有领域的可消耗的自主系统”。换句话说,主要军队正在重新思考关于如何打仗的基本规则,并依靠新技术。鉴于许多悬而未决的问题,这些发展尤其令人担忧:在人口稠密地区使用致命的自主无人机或机器人机枪时,究竟有哪些规则?需要采取哪些保障措施,如果平民受到伤害,谁应负有责任?
随着越来越多的国家相信人工智能武器是未来战争的关键,它们将受到激励,投入资源开发和扩散这些技术。虽然禁止致命的自主武器或限制人工智能工具可能不切实际,但这并不意味着各国不能采取更多的主动措施来决定它们的使用方式。
美国在这方面发出了好坏参半的信息。虽然拜登政府发布了一系列政策,概述了负责任地使用自主武器,并呼吁各国实施人工智能武器责任的共同原则,但美国也在国际论坛上阻碍了进展。具有讽刺意味的是,在最近的一次联合国自主武器委员会会议上,俄罗斯代表团实际上支持美国的立场,即将自主武器置于“有意义的人类控制”之下过于严格。
美国政策制定者可以做得更好,有三个想法值得考虑。
首先,美国应该承诺对五角大楼自主和人工智能武器的发展进行有意义的监督。白宫关于人工智能的新行政命令要求制定一份国家安全备忘录,概述政府将如何应对该技术带来的国家安全风险。该备忘录的一个想法是建立一个民用国家安全人工智能委员会,可能以隐私和公民自由监督委员会(一个负责确保联邦政府在预防恐怖主义工作与保护公民自由之间取得平衡的组织)为蓝本。这样的实体可以被赋予监督责任,以涵盖被认为影响安全和权利的人工智能应用程序,并负责监控正在进行的人工智能进程——无论是为国防部新的生成式人工智能工作组提供建议,还是向五角大楼提供有关人工智能产品和系统的建议私营部门正在开发。一个相关的想法是,国家安全机构建立独立的人工智能风险评估小组。这些部门将监督综合评估、设计、学习和风险评估职能,这些职能将制定操作指南和保障措施,测试风险,指导人工智能红队活动,并进行行动后审查。
其次,美国和志同道合的民主国家应该推动成立一个国际认可的独立专家组,以监测战争中使用的人工智能工具的持续影响。例如,如果有报道称加沙冲突中“90%的目标被击中”是由于人工智能生成的建议,那么政策制定者就应该对此类系统的风险和收益有更详细的了解。这些目标平台对平民有何影响?正在使用哪些参数,以及对定位算法进行何种程度的监督?有哪些类型的问责程序?该小组的目的是突出有关活动领域的问题,并就如何解决新出现的问题向各国政府和国际组织提出建议。
最后,各国应就军队如何在战争中使用新兴技术的行为底线达成一致。各国如何部署新技术以推进其安全利益具有狂野西部的特质。风险在于,各国,特别是非民主政权,将发起一场逐底竞赛,使用更致命的工具组合来产生破坏性影响。各国政府可以就基本参数达成一致——部分借鉴美国和其他国家提出的军事人工智能原则——以确保人工智能武器的使用符合国际人道法,并确保保障措施到位,以减轻意外升级和灾难性失败的风险。
这并不是国际领导人第一次面对新技术的毁灭性潜力。正如二战后全球领导人达成共识,通过《日内瓦公约》建立行为护栏一样,国际领导人也应该为人工智能技术做出类似的努力。自由国家可以在为部署这些强大的新型战争技术制定规范和基线条件方面发挥更大的作用。
参考来源:原子科学家公报