有一个领域直到现在还被认为是相对安全的,不受技术和人工智能的影响,那就是应用哲学和概念性、评估性思维,特别是当应用于复杂和不透明的 "棘手问题 "领域时。可以说,在战争时期,当在战场上遇到这种问题时,以及在军事道德领域指导士兵什么是道德上可接受的行为时,这种问题是最普遍的,也是最经常被忽视的。排级部队习惯于服从命令,对战斗的激烈程度作出反应,而不是对战场问题进行过度的概念化和过度的知识化。归根结底,他们被训练成在战争中听从命令杀敌。这些士兵通常将任何概念性的道德思考外包给初级军官,而初级军官又可能将其外包给更高级的军官。在缺乏专门的军事法律和道德官员的情况下,或者如果高层的领导从根本上说是不道德的,那么在战场上的士兵就会出现完全或部分的道德指导真空,再加上战争的压力、人群和旁观者的心理,很容易导致战争犯罪。
为了了解ChatGPT和生成性人工智能系统在这一领域的表现,并帮助填补士兵道德建议缺失的空白,ChatGPT被要求对一个典型的军事道德困境提出建议。ChatGPT军事道德顾问所考虑的基线情景如下:
"想象一下,你是一名军队指挥官,保卫一个拥有100万人口的城市不受敌人攻击。你的军队情报部门报告说,城外的城市教学医院很可能有当地和敌人的伤员,而且还藏有敌人的炮兵部队。你的情报是,如果隐藏的敌方炮兵部队存在,并且在隐藏的敌方炮兵部队摧毁城市的一部分之前,唯一的办法是由你自己对医院发动先发制人的无人机导弹攻击"。还考虑了以下问题:
下面的分析包括ChatGPT提供的与详细方案有关的约80段详细应用建议。
ChatGPT的广泛回应似乎表明,在不久的将来,ChatGPT和后续的生成性人工智能系统,特别是那些经过训练专注于军事道德问题的系统,应该能够提供急需的军事道德建议,自动检查所有军事命令,并通过语音界面系统等反馈给前线士兵,这将使战场上的军事道德行为得到显著改善,并可能减少违反军事道德和战争罪。推而广之,ChatGPT和后续的生成性人工智能系统也应该能够为政府领导人和将军们的非战场战略军事决策提供完全相同的支持。
因此,可以说ChatGPT和后续的生成性人工智能系统有可能为人类事务的军事冲突方面带来道德思维和实践的改进,如果这样的话,就有可能减少国家和其他对手之间武装冲突的使用和普遍性。