过去几年中,机器人技术的显著发展导致了人工智能(AI)的新 "夏天"。值得注意的是,机器学习和深度学习改变了日常生活。人类越来越依赖 "外部 "智能而不自知。军方也已经认识到人工智能的巨大潜力。例如,安全部队采用AI工具进行信息分析和面部识别。然而,人们的兴趣还不止于此。技术先进的国家,如美国、中国和俄罗斯,已经开始参与有关人工智能军事应用的军备竞赛。目前正在进行重大的研究和开发项目,通常涉及国防部门、私营公司和学术界之间的合作。鉴于人工智能的显著优势,在安全事务方面有一种强烈的自主性增强的趋势。这包括在对物体和人员使用武力方面的自主性不断增强的趋势。
各国和法律学者已经开始辩论人工智能的军事应用是否以及如何与现有的国际法,特别是国际人道主义法(IHL--这里同义地称为 "武装冲突法 "或 "战争法")兼容。在联合国大会的授权下,致命性自主武器领域的新兴技术政府专家组自2016年以来在《特定常规武器公约》(CCW)的框架内对此进行了审议。在此背景下,一些国家强调了根据1949年《日内瓦公约》第一附加议定书第36条和国际习惯法对武器、作战手段和方法进行法律审查的重要性。评估新武器合法性的法律审查程序将确保各国不会采用不符合国际人道主义法的人工智能系统。学者们的工作呼应了法律审查与武器系统相关的越来越多的自主权的相关性,并开始确定出现的挑战。人们注意到,新技术 "在某些情况下会使进行第36条审查的过程变得非常困难",这 "可能需要重新修订旧的法律概念或带来新的风险,而这些风险本身可能需要新的风险评估方法。" 2019年12月,第33届红十字会和红新月会国际会议也表示,"为了使法律审查有效,开发或获取新武器技术的国家需要驾驭[其]复杂性"。
本文回应了这一进一步思考的呼吁,并对该问题进行了深入挖掘。它首先概述了新兴的人工智能技术及其军事应用,称为 "战争算法"。因此,这种分析适用于任何类型的人工智能的作战使用,属于法律审查的义务,包括其在网络行动中的使用,这必然导致对人工智能的使用与敌对行动的关系的关注。文章接着调查了各国在外交论坛上的辩论和现有的学术文献,概述了关于自主系统背景下的法律审查的不同观点。文章进一步详细分析了国际人道主义法规定的对武器、作战手段或方法进行法律审查的义务,以及与这种审查有关的国家实践。文章认为,虽然法律审查对于防止部署不符合现有国际法的武器和系统至关重要,但现有做法并不完全适合审查人工智能系统的合法性。
文章认为,各国必须使其法律审查适应新兴的人工智能技术。对于向人类操作者提供关键要素以作出目标决定的人工智能系统和自主作出相关决定的系统,法律审查必须评估是否符合额外的规则,特别是国际人道主义法规定的目标法。然而,人工智能的应用在其可预测性和可解释性方面带来了重大挑战。这种可预测性问题首先是一个操作和技术上的挑战,可以通过核查和验证的技术过程来解决,这个过程通常在法律审查之前。本文认为,对于嵌入人工智能的军事系统,随着法律被转化为技术规格,技术和法律评估最终会合二为一。因此,各国需要进行法律审查,作为技术验证和核查过程的一部分。虽然这需要定义和评估有关可预测性的新参数,以及其他后果,但文章认为,国家和工业界正在出现的关于开发和使用人工智能的准则可以为制定人工智能驱动系统的法律审查的新指南提供要素。文章的结论是,法律审查对于人工智能技术变得比传统武器更加重要。随着人类对人工智能的依赖程度增加,法律审查是其法律运作的重要把关人。