这篇文章回顾了机器人技术和 "无人驾驶 "或 "不载人"(有时是 "遥控")系统在一些相关冲突环境中的军事和安全用途,这反过来又提出了对外交和国内政策举措有重大影响的法律和道德问题。本文处理方法适用于自主无人平台在战斗和低强度国际冲突中的使用,但也为美国国内越来越多地使用遥控和完全自主的无人驾驶航空、海洋和地面系统进行移民控制、边境监视、毒品阻截和国内执法提供指导。本文概述了有关 "机器人道德 "和道德认知的计算模型的新辩论,并研究了这一辩论对未来可能被部署在国内和国际冲突情况下的自主系统(无论是武器化还是非武器化)的可靠性、安全性和有效性的影响。同样,讨论了国际机器人军备控制委员会(ICRAC)试图取缔或禁止使用带有致命武器的自主系统,以及耶鲁大学知名伦理学家Wendell Wallach提出的另一项建议,即带有致命武器的自主系统可能能够独立于任何人类监督做出目标决定,根据国际法特别指定为 "本身无效"。然而,按照Marchant等人的做法,本文总结了迄今为止在这场辩论中所吸取的教训和达成临时共识的领域,其形式为 "软法(soft-law)"规则,反映了关于此类武器的适当使用和治理的新兴规范和日益增长的国际共识。