本文提供了广泛社会中对人工智能和自动化决策的反应的初步草图,同时将这些反应与武器系统中的自主性联系起来。
九年多来,自主武器系统一直是各种论坛的国际讨论主题,包括联合国人权理事会、联合国大会裁军与国际安全第一委员会以及《特定常规武器公约》(CCW)致命自主武器系统领域新兴技术政府专家组(GGE on LAWS)。 在这些讨论中,各国、联合国机构、国际组织和非政府组织强调了人工智能(AI)和自主武器系统的各种严重伦理、道德、人道主义和法律影响。 尽管大多数国家支持就法律文书进行谈判,但2021年12月举行的《化学武器公约》第六次审查大会未能就致力于制定任何形式监管的授权达成一致。
在编写该报告时,确定了40个国家公开发布了关于国内人工智能发展和使用的具体政策文件或其他战略。 该报告评估了众多相关的国家人工智能战略和立场、欧盟级别的报告和法规、国际准则和其他文件,以引出关于人工智能和自动化决策技术在民用领域的采用和使用的核心主题和关注。
许多国家和国际机构在民用领域认识到人工智能和自动化决策技术的使用带来的严重风险和挑战的程度,应被视为对军事领域平行和相关关切的验证。
考虑到在军事瞄准背景下自动处理所涉危害的性质和规模,以及在军事领域应用民用监督机制的困难,与自主武器系统相关的挑战尤为严峻。
针对民用领域的人工智能和自动化决策制定以人权为重点的应对措施,应促使各国关注受影响者的权利,将其作为制定军事领域必要规则的基本出发点。
使用自主武器系统的问责制和责任的重要性影响到需要如何制定某些规则,以避免问责制的削弱,并确保保护和履行国际人道主义法规则和基本人权。