人工智能能否解决战争中的伦理、道德和政治困境?人工智能(AI)驱动的战争如何改变我们思考战争伦理-政治困境和实践的方式?本文探讨了现代数字化战争中人机互动的伦理、道德和政治困境的关键因素。有观点认为,人工智能的 “理性 ”效率可以同时为人类在战斗中的心理和生理缺陷提供可行的解决方案,同时保留人类对战争机器的 “有意义的 ”控制,本文对这一观点提出了反驳。这种庞洛士式的假设忽视了人机互动的心理特征、未来人工智能冲突的速度以及现代战争复杂而混乱的本质。文章阐述了人机互动的关键心理学见解,以阐明人工智能如何塑造我们思考未来战争的政治和伦理困境的能力。文章认为,通过人机融合的心理过程,人工智能将不仅仅是现有先进武器的武力倍增,而将成为战争中事实上的战略行动者--“人工智能指挥官问题”。
文章分为三个部分。第一部分通过对人类与技术以及人机互动的更广泛对接进行背景分析,为论点提供框架。文章探讨了人类为何以及如何与机器和新出现的复杂社会技术系统纠缠在一起、军事技术伦理的根源以及无风险、无摩擦战争的概念。报告将人工智能技术描述为这一社会技术趋势的新表现形式。它认为,在战争决策中外包人类良知--幻想解决战争的伦理、道德和政治困境--有可能侵蚀人类与战争之间的重要联系。本节还讨论了质疑 “用机器取代人类一定是个坏主意 ”这一观点的各种反驳意见(“人工智能乐观主义者”)。例如,人类会犯错误,经常做出非理性的行为,而且容易产生暴力、不道德和非人化等原始本能(Haslam,2006 年;Brough,2007 年)。
第二部分探讨了人机互动的心理特征。具体地说,本节分析了人类的几种偏差--控制幻觉、启发式捷径(Einstellung效应、存在偏差)和自动化偏差--这些偏差会使指挥官容易滥用或过度使用军事力量以达到不公正的目的。报告还讨论了这些偏差在更广泛的政治驱动力中的潜在影响,这种政治驱动力就是通过技术神器来实现战争的可预测性和集中控制。
最后,第三部分探讨了利用人工智能等技术完善无风险、无摩擦战争的手段对军事伦理和战争中的道德责任的潜在影响。它将围绕人工智能技术将人类伦理编码到机器中的争论背景化。它还探讨了人类情感的作用,人类情感赋予我们理性和深思熟虑的感觉,影响我们的决策,并塑造我们对伦理和道德困境--没有明显理想结果的情况--的反应。人类的伦理道德能否被编程到算法中?如果可以,那么如果道德责任外包给人工智能,人类又该如何保留自己的伦理和价值观?