人工智能(Al)有可能彻底改变全球军事事务,就像原子弹在 20 世纪中期所做的那样。当技术革命打破国际战略平衡时,外交通常会介入其中。在这种情况下,欧洲联盟(欧盟)如何定位自己?尤其是欧盟对致命性自主武器系统(LAWS)采取了什么态度?欧盟新的国防工业政策就是其中之一。
然而,欧盟似乎无意在这一领域推行限制性政策,至少目前是这样。欧盟在这一问题上的雄心仅限于LAWSA,即便如此,这一领域的想法也是建立在非常模糊的概念基础上,这些概念不应该在开发和工业生产方面产生任何实质性影响。
关于军事人工智能和致命性自主武器,首先要说明的是,欧盟并不禁止开发或使用它们。事实上,在国际层面上,目前还没有任何形式的治理框架或规则来处理这些系统。然而,无论是在联合国(UN)和欧盟,还是在其他国际论坛上,要求部分禁用致命性自主武器的压力都很大。
在联合国日内瓦办事处,自2014年以来,在1981年《特定常规武器公约》(ccW)的框架内,特别是在该公约设立的政府专家组(GGE)内,就这一议题展开了讨论。在此背景下通过了 11 项原则。这些原则指出,致命性自主武器必须始终符合国际人道主义法,人类必须对使用这些系统的决定负责,各国必须审查这些新武器的合法性。欧盟通过其外交与安全事务高级代表承诺遵守这些原则,但这些原则仍然含糊不清,不具约束力。然而,安东尼奥-古特雷斯(António Guterres)更明确地谈到了 "致命性自主武器"。2018 年,联合国秘书长宣布此类武器应被视为政治上不可接受、"道德上令人厌恶 "的武器,并呼吁国际法禁止此类武器。随后,他呼吁会员国在 2026 年之前就此问题通过一项条约。然而,各国就此问题的讨论却停滞不前。
在布鲁塞尔,辩论也是如此。一方面,欧洲议会长期以来一直坚持欧盟应在国际层面推动通过一项法律文书来禁止致命性自主武器。另一方面,一些成员国(但不是所有成员国)似乎并不打算让步。在这方面应该强 调的是,这一问题仍然是理事会和成员国的专属权限,欧盟在这一领域可能采取的任何举 措只能由它们一致提出。
然而,这并不意味着欧盟,包括欧盟委员会和欧洲议会(EP),不会对军用人工智能系统和致命性自主武器系统的研究、开发和生产产生任何影响。相反,它们可能会间接影响人工智能的方式,主要通过以下三个因素:
1.欧盟将于 2023 年底通过的关于人工智能民用和商业应用的法规。
2.欧洲机构和欧洲议会内部关于是否有必要对军事人工智能,特别是 "致命性自主武器系统 "进行监管的辩论。
3.欧盟管理其国防工业资助计划的方式。