本研究报告分析了当前利益相关者对军事自主系统的人为输入或控制的想法。作者首先定义了关键术语,如 "机器学习"、"自主系统"、"人在回路中"以及军事背景下的 "有意义的人为控制",然后讨论了当代利益相关者的文献对无人驾驶军事系统的人的输入/控制的说明。然后,报告讨论了各利益攸关方是否对进攻性和防御性系统中所需要或期望的人类控制水平达成了共识,以及是否因系统具有致命性和非致命性能力或西方和非西方国家之间的意见不同而有所不同。报告最后从政策和操作的角度阐述了利益相关者的想法对加拿大国防部/空军的可能影响。
主要研究结果
在与自主系统有关的关键术语的定义方面存在着相当多的争论。
在国家对自主武器应采取何种监管手段的问题上,各利益攸关方一直存在分歧。
参加这些讨论的缔约国已就自主武器的一系列指导原则达成共识,包括 "必须保留人类对使用武器系统决定的责任"。
在近30个表示支持禁止致命性自主武器系统(LAWS)的国家中,没有一个是主要的军事大国或机器人开发商,主要的军事大国似乎都在对冲自己的赌注。
许多民主国家认为,他们打算保留人类对使用武力的控制/判断,不需要禁止,因为现有的国际人道主义法律(IHL)足以解决围绕自主武器的问题。
加拿大拥有重要的人工智能(AI)能力,该能力被用于民用而非军事用途。
如果在国防领域不接受至少某种程度的(人工智能支持的)自主性,可能会降低与盟国的互操作性,给加拿大武装部队(CAF)的行动带来风险,并且随着时间的推移,使CAF对国际和平与安全的贡献失去意义。