2023 年 2 月,荷兰主办了首届 “在军事领域负责任地使用人工智能”(REAIM)全球峰会,最终有 32 个国家批准了 “关于负责任地在军事领域使用人工智能和自主权的政治宣言”,此后批准国增至 54 个。该宣言由美国制定,不具约束力,旨在促进就人工智能(AI)的军事部署规范达成共识。
本文支持加拿大领导的问责工作组,该工作组是为详细阐述宣言原则遵守情况而成立的三个国际工作组之一。本文深入探讨了围绕武装冲突中人工智能行动的问责问题展开的复杂法律讨论,尤其侧重于致命性自主武器系统(LAWS)和用于锁定目标的决策支持系统。
第一部分概述了《政治宣言》的问责原则,强调要求指挥官在部署人工智能系统时 “适当谨慎”。政治宣言》认为,这一用语体现了指挥官和操作人员需要根据人工智能系统的功能、他们接受的系统培训、他们对目标和环境的了解以及国际人道主义法的要求,有意识地根据具体情况对人工智能系统作出决定。
第二部分阐述了规范敌对行为的现有国际法律框架。该部分首先介绍了规范军事行动的国际人道主义法核心原则,以及在使用人工智能作为决策支持工具或武器系统的一部分时,是否以及如何坚持这些原则的争论。这一部分的结论是,现有文献令人信服地证明,在战场上使用人工智能时,至少可以像使用其他形式的现代技术一样,遵守国际人道主义法的原则。
第三部分讨论了人们对使用人工智能可能导致国际人道主义法和国际刑法(ICL)出现问责漏洞的担忧,并认为现有的指挥和国家责任条令足以维持问责。
最后,在确定指挥和国家责任的条令对于维持武装部队使用人工智能的问责制至关重要之后,第四部分认为,真正的工作是界定军事指挥官需要什么来依赖和部署他们承担法律责任的人工智能系统。答案有三个方面:可预测性、培训和纪律。为此,建议加拿大在发展和部署人工智能时,应重点发展或重新配置现有条令,以满足这些要求。