不可否认,新型技术、行为体与冲突情境的兴起为战争注入了新变量。尤其值得关注的是,新技术战争手段及人工智能在军事行动和决策中的应用,正引发重大安全与伦理关切。专家已就人工智能深度渗透及其引发的军事变革拉响警报。本文重点剖析人工智能武器的安全与人道风险,聚焦有限人类监管与技术误差带来的多重影响。本文主张:缺乏人类监管的人工智能军事技术大规模部署,不仅对国际法构成重大威胁,更可能在全球武装冲突动态中开创危险先例,亟需监管干预。研究将以以色列国防军(IDF)在当前加沙战争中生产部署的AI决策武器为案例,展开批判性反思与经验总结。
本研究旨在揭示新型人工智能武器对国际法的危险冲击,呼吁通过强化监管实现问责机制。通过检视以色列在加沙的AI技术部署,聚焦自动化决策武器系统与弱化人类监管引发的安全影响及人道风险。最后,本文将对这类工具的广泛非监管使用进行批判性反思,强调其必须遵循战争法,并探讨欧盟作为监管力量的角色——依据其防务政策对人工智能武器构建系统性应对框架。