人工智能(AI)领域的不断进步以及在关键部门整合AI系统的工作正在逐步改变社会的各个方面,包括国防部门。尽管人工智能的进步为增强人类能力和改善各种决策提供了前所未有的机会,但它们也带来了重大的法律、安全、安保和伦理问题。因此,为了确保人工智能系统的开发和使用是合法的、道德的、安全的、有保障的和负责任的,政府和政府间组织正在制定一系列规范性文书。这种方法被广泛称为 "负责任的人工智能",或道德的或值得信赖的人工智能。目前,负责任的人工智能最引人注目的方法是开发和运作负责任或道德的人工智能原则。
联合国裁研所的 "在国防中实现负责任的人工智能 "项目首先寻求对负责任的人工智能系统的研究、设计、开发、部署和使用的关键方面建立共同的理解。然后,它将审查负责任的人工智能在国防部门的运作情况,包括确定和促进良好做法的交流。该项目有三个主要目标。首先,它旨在鼓励各国采用和实施能够在开发和使用人工智能系统中实现负责任行为的工具。它还试图帮助提高透明度,促进国家和其他关键人工智能行为者之间的信任。最后,该项目旨在建立对负责任的人工智能关键要素的共同理解,以及如何将其付诸实施,这可以为制定国际公认的治理框架提供参考。
本研究简报概述了该项目的目标。它还概述了项目第一阶段的研究方法和初步结果:制定共同的原则分类法和对各国采用的人工智能原则进行比较分析。