超越工具论:AI的三种战场角色

暂搁当前技术局限,我们审视AI与参战人员的深层关系:若AI能在美莱式危机中指导士兵,是否应将其定位从"工具"提升至"教练"?或需更强化其"执行者"职能,强制约束交战行为准则?

无人机自主权限与人类决策权的平衡,将决定军事AI系统扮演"工具""教练"还是"执行者"。未来指挥官须审慎考量这三种角色各自的伦理影响,在部署AI系统时做出艰难抉择。

将人工智能视为工具或教练的思考

主流观点认为人工智能系统仅作为工具运行。AI可受令执行人类设定的特定指令,服务于人类自身利益。在此语境下,其作用如同用锤子而非拳头将钉子钉入墙壁——职权范围狭窄,目标明确。工具类实例包括目标识别算法或AI增强型导弹防御系统。若无人机仅执行空中监视或通信中继,亦可归类为工具。

然而,我们假设的"汤普森无人机"将拥有更大职权,能够在"局部"与"全局"目标间进行仲裁。局部目标指与任务、子任务或战役决策点相关的短期目标,通常作为实现全局目标(指导整体行动的高层战略目标)的手段。在局部与全局目标冲突时进行仲裁,涉及目标重塑或优先级判定。

例如,当向凯利中尉发送与其行动或声明意图直接冲突的信息时,"汤普森无人机"即参与全局与局部目标的仲裁。在全局层面,它权衡"消灭敌人与保护己方部队"和"保护非战斗人员"的战略优先级;在局部层面,需处理即时任务(如暂停火力以重新评估情报)。

无论涉及何种目标,具备广泛建议权限的AI都超越简单工具范畴——尤其在目标塑造与仲裁层面。举例而言,闹钟可有效干预人类睡眠欲望(尤其在清晨深度睡眠时),但我们仅视其为保障准时工作的实用工具。但若AI闹钟不仅响铃,还建议你更换更晚开工的工作?此类具备决策权限的闹钟更接近"教练"而非工具。因此,可将目标仲裁权限有限者视为工具,任务决策权限较高者视为教练。

人类代理权与教练/执行者之辨

AI的决策权限可区分其工具或教练角色,但人类与AI的关系亦须考量。此处需引入"人类代理权"概念——特指人类忽视或对抗AI系统的自主能力。

以闹钟为例:其可干预人类睡眠意图,但亦可被延迟、关闭或摔毁。同理,假设的"汤普森无人机"可通过展示平民俯拍图像或持续警报干扰人类决策,甚至评估士兵心理状态调整通信策略。若此类信息可被忽视或否决(如同忽略健身教练指令),则人类对AI教练保有高度代理权。

但若部队因无视无人机指引而承担后果呢?例如无人机记录指挥官违令行为并上报上级?此时人类仍具代理权,但程度低于纯信息传递场景。此类情形下违抗AI,不再类似忽视私人教练建议,而更接近无视可令你离场或开除的球队教练。

回顾美莱事件:汤普森与凯利当面对峙,威胁若士兵攻击平民将实施武力阻止。若"汤普森无人机"发出同样威胁?这必然令多数指挥官与士兵陷入两难。当无人机具备开火强制力时,地面人员无法忽视或否决其指令——此时AI超越教练角色,成为执行者。

分析表明,能强制执行决策的AI系统非教练,而更接近"执行者"。AI作为教练或执行者的分界,核心在于人类代理权的存续:当人类保有足够代理权忽视AI时,AI为教练;当人类丧失此能力时,AI即执行者。

人类代理权并非二元对立,而是连续范围。范围一端是仅响应指令、可被随意关闭的AI;另一端是违令即开火的AI。两极之间存在不同人机互动模式,对应不同代理权层级。外部因素亦影响代理权行使:若AI建议通过拟人化语音传递而非屏幕文字显示,人类是否更易遵从?同系统被标注为"专家顾问"而非"支持工具"时,是否更具说服力?说服性聊天机器人会削弱代理权吗?此类问题虽重要,但超越本文探讨范围。

将人工智能视为工具、教练或执行者的影响

美军文化惯于接受人类教练与技术工具,而非技术教练或AI执行者。在将AI系统设定为工具、教练或执行者时,军队需做出选择:或顺应现有文化规范,或彻底改变规范。此类选择并非皆易行。

将AI作为工具拦截导弹袭击属有历史先例的明确决策。美国防部已制定自主与半自主武器系统使用政策,工具型AI的有限决策权可增强人类对特定情境行动的控制力。

赋予AI更广泛决策权(尤其在军事行动的局部与全局目标塑造中)虽非史无前例,但较工具型应用更具创新性。例如,众多美军人员使用健身类APP(通过激励提示达成训练目标);情报高级研究计划局"理性"(REASON)项目指导分析师寻求特定证据支撑结论或考虑替代解释;新型AI决策支持系统正涌现以辅助指挥官决策(尤战役层级)。

科幻版美莱场景表明,AI可能作为执行者应用。此类决策能否有效减少平民伤亡尚不明确——这需在科幻成真前深入研究。但需注意:无指挥官愿承担蓄意杀害平民之责。美莱惨案令陆军蒙羞(曾试图掩盖)并成为全球丑闻,至今仍是军事学院警示案例。从人道与作战视角,AI作为预防或中止此类灾难的保障机制颇具吸引力。

前文已揭示:AI决策权扩展与人类代理权缩减将推动其角色从工具向教练直至执行者演变。因此美军领导者应考量AI系统设计与运用选择如何反映角色定位倾向及相应影响承受度。领导力与伦理课程教官应引导课堂探讨各层级指挥官部署AI时的考量要素(含人类代理权影响)。理论家与伦理学家(结合AI研发者见解)需就"AI强制力"与"官兵代理权"的实践伦理权衡提供见解。项目主管应通过培训与人因设计强化指挥决策权。技术人员需参与伦理讨论并设计符合作战目标的AI方案与交互界面。

"人类代理权"与"无代理权"间无明确界限。即使AI教练可被轻易忽视,其传递的信息仍影响人类决策——这种影响或轻微(如屏幕文本提示),或强力(如无线电高声警告或情感操控信息)。此类设计选择权属技术人员与指挥官共有,双方均需考量设计决策对工具-教练-执行者框架的潜在影响。

结论

部分观点认为,具备特定条件下否决军事命令能力的虚构"汤普森无人机"因美军长期奉行的指挥、授权与人类自主权原则而不可行。但回溯海军舰艇无线电设备列装至作战行动实时监控的发展历程,部队个体单位的独立性自主权确呈持续弱化趋势。

跳出美国视角,此设想更具现实性。俄罗斯军方对算法化战争的拥抱,表明高层可能倾向依赖技术系统规避对训练不足或判断力欠缺的基层部队的依赖。

需明确的是,AI扮演教练角色未必削弱地面部队代理权。部队仍可完全保留忽视或否决AI教练建议的能力。实际上,配置能有效塑造与仲裁局部/全局目标的AI教练,或可成为强化而非削弱部队自主决策的助力。但"教练"与"AI操控"的界限难以界定,何为人类代理权?接受AI监管部署是否构成代理权行使?这些问题需深入探究。

必须承认,仅作为教练的AI或不足以预防美莱式灾难。若地区指挥官无视无人机停火指令或击落其以终止干扰,应否剥夺人类违抗权以更有效阻止屠杀?

答案取决于无人机影响战局的实际效能。但效能提升终将与人类代理权形成张力。在此意义上,军方将面临关键权衡:是强化作战效能,还是保留人类自主决策权?我们并非主张单纯为提升效能而赋予AI更大权限,而是呼吁军事领导者审慎考量AI部署对官兵独立决策能力的影响。

参考来源:WAR ON THE ROCKS

成为VIP会员查看完整内容
9

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
中文版 | 人工智能前沿:创新、突破与挑战
专知会员服务
12+阅读 · 5月6日
中文版 | AI参战:威力与隐忧
专知会员服务
20+阅读 · 4月19日
未来空战:人与机器能否彼此割离?
专知会员服务
24+阅读 · 3月3日
专家报告 | 融合数据先验知识的智能图像增强
中国图象图形学报
16+阅读 · 2020年5月25日
【前沿】智能化战争,会改变些什么?
中国自动化学会
21+阅读 · 2019年8月21日
视频丨有人无人协同炫酷作战模式
无人机
16+阅读 · 2018年5月4日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2012年12月31日
Arxiv
169+阅读 · 2023年4月20日
Arxiv
76+阅读 · 2023年3月26日
Arxiv
168+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员