所谓的杀手机器人已经到来,由人工智能支持的自主武器将成为未来战争的一个突出特征。在国际竞争者开发这些系统的背景下,在国际和多国公司的关注下,国家安全委员会关于人工智能的最后报告判断,这些类型的无人驾驶武器可以而且应该以符合国际人道主义法律的方式使用,适用人类授权的使用条件和适当的设计和测试。人工智能支持的自主性及其军事应用带来了这些技术的基本风险,它们在无人武器中的使用进一步挑战了军队在国际人道主义法和正义战争理论框架内寻求合法使用。因此,伦理学提供了优越的概念载体,以任命和授权人类授权者和使用者,并从质量上确定什么是 "适当的 "设计和测试。国防部的 "人工智能准备部队运动 "所确立的七个人工智能工作者原型中的每一个都应该应用与角色相关的、与人工智能有关的道德规范,以充分实现《最后报告》中所确立的条件,并保留和支持控制暴力垄断所必需的人性。对道德教育的需求单独和集体地渗透到每个原型中,美国防部必须认识到公共/私人伙伴关系的价值,以充分考虑这些条件。