最近,凯文·米切尔(Kevin Mitchell)和亨利·波特(Henry Potter)在欧洲神经科学杂志(European Journal of Neuroscience)上发表的一篇论文[1],对当前神经认知处理中因果关系理解提供了有价值的概述,这对基于神经形态的人工智能(AI)系统的军事应用具有重要启示。随着从传统的机械式AI架构,转向那些旨在更紧密地模拟神经系统复杂因果动态而设计和开发的架构,军事利益相关方(及监督机构)必须面对自主决策的新范式,这些范式可能挑战对AI可预测性、指挥控制及问责制的传统理解。迄今为止,军事AI系统一直基于相对线性的机械原理运行;换言之,输入A导致过程B,从而产生输出C;输出C可影响过程D,从而产生输出E,依此类推。这种确定性框架已被证明对特定的、只需清晰刺激-反应模式的战术应用极具价值。然而,随着能够在复杂动态环境中运行的、日益复杂的迭代式自主系统的发展,纯机械方法的局限性变得显而易见。现代战场空间和交战的特点是模糊性、情境快速变化以及需要对不完整信息进行更细致入微的解读。这些都是生物神经网络所应对挑战的镜像,或在某些情况下与之完全相同。AI处理的机械范式的根本弱点在于其无法解释情境敏感性,并发挥有效军事决策所需且特有的适应性灵活性。因此,虽然机械式AI可能在受控场景下的模式识别方面表现出色,但当面对新颖或完全陌生的、需要超越初始编程的刺激识别与响应过程参数进行解读的情境时,它可能会失败(甚至可能是灾难性的)。考虑到某些军事应用固有的潜在致命后果,这种不灵活性尤其成问题。
彼得·乌尔里克·谢(Peter Ulric Tse)最初提出的“标准因果”(criterial causation)概念,为理解神经形态设计和结构化的AI系统如何在军事背景下运行(而非简单的刺激-反应机制),提供了一个更复杂的框架。(即触发这些系统将在启动决策过程和行动之前,评估多个常常不同且发散聚合的标准)。在神经形态军事AI中,相当于突触权重、阈值和情境因素的等效物将决定输入数据(即输入)是否满足必要且充分的条件,以引发特定的作战决策与行动(即输出)响应。例如,考虑一个负责识别和攻击目标的自主无人车载系统。一个机械系统可能依赖预定的光学信号/线索来识别目标特征,并将其与已识别的风险和威胁关联起来。相比之下,基于标准因果原则运行的神经形态系统将整合多种数据流——视觉数据、通信拦截、行为模式、环境情境和任务参数——以确立动态特征,这些特征必须在决策启动和输出行动被授权之前得到评估和满足。系统对不同类型和数量信息的相对权重将基于累积的经验和变化的作战条件持续调整(即,它将作为一个动态贝叶斯系统运行)。
这种方法在作战灵活性和降低误报率及误报结果方面提供了显著优势。然而,它也给军事监督带来了新的挑战。传统的指挥控制结构倾向于假设决策路径是可预测、可追溯的。相比之下,标准因果过程可能通过基于多样化、广博且权重各异的不同类型、层级和数量的数据所进行的、难以重构或预测的流程,做出在战术上合理的决策,从而使实时监督和行动后问责都变得复杂。军事AI中标准因果处理的实施引发了关于问责制和法律框架的深刻问题,这些问题目前由“战争法”(Law of War)和北约的“负责任使用人工智能原则”所涵盖。随着系统在决策中融入更高程度的自主性和适应性,确保这些系统在既定交战规则(ROE)和国际人道法(IHL)参数内运行变得更具挑战性。最终,神经形态军事AI中标准因果关系的出现标志着一个范式转变,即从依赖预定决策树的相对刚性AI架构,转向能够进行更细致、情境感知评估的架构,这种评估更接近生物认知。虽然这提供了显著的优势,但它也迫切需要开发新的监督和验证协议,以确保这些先进AI系统的可靠和负责任部署。
将历史因果关系整合到基于神经形态的军事AI中,可能代表了这些新兴技术最具变革性的方面。通过纳入历史因果关系,这样的系统将基于累积的经验、训练数据以及环境/情境偶然性和紧急情况,持续修改其操作参数。这类因果关系的时间维度对军事效能和监督具有重要影响:一个能从过往交战中学习、适应对手对抗措施并发展战术方法的AI系统,可能提供前所未有的战场优势。然而,这也对围绕可预测可控资产设计的指挥结构提出了挑战。
历史因果关系处理表明,基于神经形态的AI当前的决策能力与其发展历史、训练数据、先前作战经验以及在不同部署中遇到的环境力量和进化压力存在着不可分割的联系。这在系统内部创造了一种“制度记忆”,这种记忆可能难以审计、修改或重置。因此,考虑到这些系统的当前能力和局限性(它们是复杂历史轨迹的产物,而非明确编程的直接结果),如何管理这些系统将至关重要。
军事神经形态AI或许最重大的进步在于语义因果关系,凭借于此,AI的决策能力不仅源于模式识别,更源于这些模式在不同作战情境中所获得和预示的相对意义与价值。一个通过语义因果关系过程运作的、基于神经形态的军事AI,将通过习得的关联、情境意义和适应性价值来解读输入数据。这种方法直接模仿了人类情报分析员处理信息的方式。
例如,类似的情报数据可能因作战情境、任务参数和累积的专业知识而引发不同的响应。在一种情境下看似例行且无害的敌方通信截获,在另一种情境下,基于从历史模式和当前态势现实与认知中衍生出的语义,可能预示着迫在眉睫的风险或威胁。在军事应用中,语义因果关系为应对日益复杂的环境和场景提供了更细微、更符合情境的响应潜力。但AI系统赋予输入数据的意义可能与人类的解读不一致,这可能导致意外或不适当的反应。由此产生的解读变异性可能挑战强调标准化响应和可预测结果的传统军事原则。
从机械式AI系统向执行因果决策过程的基于神经形态的AI系统过渡, 需重新考虑军事监督的一些基本方面。传统的AI治理方法假定决策过程和路径是透明、可审计、可识别、可验证、可修改且可追责的。而通过标准、历史和语义因果关系运作的系统对上述每一项假设和监督要求都构成了挑战。
鉴于标准因果机制的复杂性(及可能的不可透性),对数据同化、关联和价值评估等AI内在决策过程的识别和验证难度有所增加。这些系统的动态特性意味着在某一时间点的验证可能无法预测其在不同条件下或经过额外学习经历后的行为。军事监督必须开发评估系统可靠性和适当性的新方法,以考虑这种固有的动态性。
修改神经形态系统带来了额外的挑战,因为扩展的因果框架可能需要更多方面的干预,这些干预需考虑随时间推移和系统经验演化而来的历史因果关系模式和语义意义结构。军事规划者应考虑系统需要哪些改变,以及如何在不断裂和损害其提供的适应性优势能力的情况下实施这些改变。
将利用扩展因果框架的基于神经形态的AI系统整合到军事应用中,需要仔细考量机遇、收益、负担和风险。为此类评估并促进该系统的潜在采纳和使用,我建议采用分阶段方法,从低风险应用开始,随着理解力和监督能力的成熟,逐步增加系统自主性。
• 首先,初始部署使用因果决策处理的基于神经形态的AI系统,应侧重于情报分析和决策支持角色,在这些角色中,人员监督和参与保持强劲,且输出行动的最终授权仍由人类操作员掌握。
• 其次,随着对这些系统的经验增长和监督机制演进,在作战情境中逐步扩展系统自主性变得更为可行,并应在特定环境和离散情况下进行建模。
• 第三,军事机构应征召、培养并持续扶持基于神经形态的AI系统及其功能的新专业知识,包括精通标准、历史和语义因果关系原理应用的人员。
• 第四,侧重于机械和电子系统的军事技术教育,应补充关于复杂自适应系统架构、功能及其所呈现的涌现行为模式的培训,以加强有能力的系统开发者、操作员和指挥人员的配备。
扩展因果框架的概念为理解和实施可用于军事环境的基于神经形态的AI系统提供了关键见解。毫无疑问,这些系统为适应性、情境感知的决策提供了可观的能力;然而,它们也挑战了关于可预测性、控制性和问责制的基本假设,这些假设对传统军事原则至关重要。
因此,成功整合这些技术将需要知识、对技术进步的欣赏与参与,以及对军事思维、训练和监督机制的修改,从而使得能够有效、高效且符合伦理地作战使用此类系统。简而言之,必须采取谨慎、系统性的方法来理解和管理这些新兴能力。随着迭代式自主AI系统在军事环境中的整合,来自脑科学关于神经系统中因果决策与行动过程复杂性的经验教训,应为审慎对待基于神经形态的人工系统提供信息和指导。
参考文献
[1] Potter H D, Mitchell K J. Beyond Mechanism—Extending Our Concepts of Causation in Neuroscience[J]. European Journal of Neuroscience, 2025, 61(5): e70064.