美国媒体“岩石之上”War on the Rocks近日报道了来自美海军陆战队指挥与参谋学院的大语言模型(LLM)使用教训。

生成式人工智能已经到来,但还不完全知道如何利用它。在工业界和军方,热情都超过了成果。公司放弃的人工智能(AI)项目比例上升,而防务组织经常重复“决策优势”的口号,却没有提供清晰的实施路径。问题很少是技术性的。相反,成功取决于机构是否愿意调整其结构和流程以使新工具发挥作用。

美军的联合规划过程就是一个典型例子。联合规划过程是美军制定复杂问题逻辑解决方案的条令性方法。作战规划团队是在生成式人工智能广泛采用之前设计的,如果没有刻意调整,它们可能将强大工具边缘化。最近在美海军陆战队指挥与参谋学院进行的实验中,学生将大语言模型(Large Language Model)整合到多个规划练习中,揭示了这些工具如何影响任务分析、团队协作和领域专业知识。

为解释这一点,首先描述学生实际上如何在规划中使用生成式人工智能,以及工具在哪些方面产生最大影响。其次,总结教训:人工智能(AI)何时支持创造性思维,何时被群体动力学(group dynamics)或专业知识边缘化。最后,提供重构作战规划团队的实用建议:重新设计工作流程、起草提示模板、构建训练管道以及集成检查点,以确保人工智能不仅仅是一个可选的附加项。为了充分利用生成式人工智能,作战规划团队本身应该改变。

在2024–2025学年,美海军陆战队指挥与参谋学院进行了五次规划练习。在这四次规划练习中,一小部分学生被授予访问一个模型无关(model-agnostic)的大语言模型工具的权限。该工具让学生获得了在作战规划中使用大语言模型的经验,并让学校能够研究如何最好地将人工智能纳入课程。本文中,美海军陆战队指挥与参谋学院一名教员和一名毕业生针对以下两个问题提供了教训:学生应如何将工具融入规划?教员应如何将人工智能融入规划课程

总体而言,通过调查中的自我报告以及供应商观察使用率的能力,确定规划团队成员更可能在联合规划过程的早期使用该工具,尤其是在任务分析步骤中。此外,尽管在规划过程后期看到使用率下降,但对于那些在后期步骤中确实使用该工具的人,他们自我报告了对提示(prompts)的更高质量答案。这可能表明,群体中一个自我选择的子集坚持使用该工具,并通过这种坚持获得了更好的结果。

经验教训

作战规划团队是由军官和参谋人员组成的临时小组,旨在解决特定的规划问题。他们通常在联合规划过程中组建,并包括来自不同职能领域(作战、情报、后勤、通信等)的成员,以确保所有视角都得到体现。他们的工作是分析任务、制定行动方案、比较选项并为指挥官提出建议。简而言之:他们是特设的规划小组,从整个参谋机构汲取专业知识,以设计和完善特定作战的行动计划。每项具体教训所基于的基本见解虽不出所料,但很重要:如果你想在作战规划团队中最大化人工智能(AI)的性能,就需要重构你的作战规划团队。

教训1:大语言模型的价值在发散性思维过程中最为明显

在创造力领域,收敛性思维和发散性思维代表了两种不同的观点生成方式。这种区分体现在美海军陆战队的规划出版物和《联合军官手册》(Joint Officer Handbook)中:发散性思维旨在产生新的见解和想法,而收敛性思维则旨在将这些想法整理成连贯的类别。

运用发散性思维以拓宽可能解决方案的范围,然后运用收敛性思维以得出解决方案的迭代过程,贯穿于整个规划过程。但发散性思维在联合规划过程的任务分析步骤中最为明显,该步骤发生在作战规划团队将这些新想法和见解组织成逻辑分组(尤其是在行动方案制定与分析阶段)之前。

在美海军陆战队指挥与参谋学院,发现学生在任务分析阶段(对应于发散性思维)使用大语言模型工具的可能性高于在联合规划过程的后续步骤中。

这一发现与教训2紧密相关。

教训2:大语言模型的价值在成员专业知识领域之外尤为明显

大语言模型的缺陷是众所周知且有据可查的。学生很清楚大语言模型存在认知局限和会产生幻觉。这一潜在知识的一个结果是,学生在自己专业领域之外操作时更可能使用该工具。

一名美陆军炮兵军官讲解,当在练习中被安排到一个其炮兵专业领域之外的职位时(例如,作为后勤或信息规划人员),使用该工具的意愿会强烈得多。他预期该工具能够从那个不熟悉的职业领域为他提供基础知识,这比它在其本专业领域内提供更高级知识的效果要好。

在学年早期的规划练习中,学生被分配到小型作战规划团队,因此经常被要求担任与其军事专业不符的职位。在学年最大也是最后的规划想定中,规划参谋团队的规模要大得多,使得许多学生能被分配在其专业领域内工作。在这些情况下,他们认为需要咨询生成式人工智能以进行技术澄清或获取外部见解的需求较低。当学生确实咨询该工具时,其输出常被视为冗余而非补充。

这一观察结果与军事领域外的见解一致:大语言模型在通用知识任务上的表现优于在特定领域知识任务上的表现。专家在其专业水平上获得新颖见解的可能性,低于用户在新手水平上获得知识的可能性。

这不是工具的失败,而是反映了如何构建和鼓励人工智能应用的框架。

这一现象强调了一个关键见解:人工智能的应用需要领导者界定具体的用例,使工具在其中提供明显优势,无论是通过加速建立共识、扩大规划选项的范围,还是揭示被忽视的历史相似之处。

针对教训1和教训2,建议在作战规划团队内部设计工作流程,要求或鼓励团队成员在规划过程的所有阶段将其分析与人工智能生成的建议进行比较。作战规划团队负责人应考虑预先制定团队成员可用于评估自身工作的提示模板草案。没有结构化的提示,即使是最先进的工具也会未被充分利用。

教训3:仅有热情而无经验是不够的

在演习期间,许多参与者渴望探索生成式人工智能能提供什么。然而,由于对特定工具乃至更广泛的生成式人工智能的先期经验有限,大多数人难以创造出有意义的输出。当从提示到有用产品的路径不清晰时,热情迅速让位于挫败感。

人工智能(AI)人才不足与实施效果不佳之间的关系是工业界一个众所周知的问题。初始的好奇心应配以渐进式培训、指导以及清晰的成功范例。否则,早期应用的势头就会停滞。工业界成功的人工智能集成往往较少依赖于技术能力,而更多依赖于持续的员工发展和信任建立。换句话说,仅仅采购工具并向团队成员提供访问权限不足以确保成功。

针对此经验教训,建议将人工智能工具与结构化的入门培训、基于场景的训练和同伴辅导相结合,以建立信心和能力。随着时间的推移,这些支持可以从规定性的检查清单过渡到更有机的使用。

在组织内部缺乏人工智能专业知识的情况下,领导者应考虑投入资源对一小部分团队成员进行技能提升,以便这些具备人工智能能力的团队成员能够开展成功所需的入门培训、基于场景的训练和同伴辅导。

教训4:小团体动力学塑造行为

一个重要发现是,小团体协作常常取代了对使用生成式人工智能工具的需求。学生们自然地转向彼此来解决问题、辩论选项和完善产品。这种倾向强化了一个原则:人工智能应被整合到协作工作的结构中,而不是作为可选的增强功能叠加在上面。

用创新的术语来说,这是结构创新的一个例子,它通常必须伴随产品性能创新——结构创新指的是你“如何组织和调整你的才能和资产”。在缺乏这种人才与工具整合的情况下,人际关系和既定流程将主导引入新技术的尝试。

制定规划模板和引导指南,要求团队在指定的检查点(如初始任务分析、行动方案比较和风险评估)纳入人工智能的输出,确保模型与团队整合,而不仅仅是新奇事物。

结论

成功使用人工智能工具的标准从来不是学生是否制定了完美的计划,而是他们是否努力尝试了新工具、是否犯了错误,以及是否开始看到生成式人工智能能为规划艺术增添什么。最重要的发现不是关于技术的局限,而是关于团队的局限。仅仅向一个规划小组提供模型的访问权限能产生灵光一现的洞见,但除非小组本身进行重组以利用这些洞见,否则它们会逐渐消失。

这种重组需要的不仅仅是热情。它需要将提示模板写入规划的早期阶段,培训学生不仅仅是“尝试工具”,而是借此建立技能和信心,并刻意开辟检查点,要求在这些点使用人工智能来检验假设和打磨想法。这些调整听起来很小,但合在一起标志着一个转变:作战规划团队不再是一个静态结构,而是一个可塑的系统,一个可以为人类协作时代重新设计的系统。

教训很明确:人工智能本身并不能改变规划——它能改变那些愿意改变工作方式的团队。不满足于实验的领导者应准备好重新设计他们的规划小组,使人类判断和机器生成的洞见相互强化。否则,生成式人工智能将仍然是条令边缘的新奇事物。但通过刻意的结构调整,团队可以利用人工智能提供的洞见。

参考来源:warontherocks

成为VIP会员查看完整内容
5

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
战争中的智能伙伴:DARPA神经符号人工智能计划
专知会员服务
23+阅读 · 7月23日
俄乌战场上的AI无人机争夺战
专知会员服务
36+阅读 · 3月7日
大型语言模型与网络防御:战术网络边缘的人工智能
专知会员服务
35+阅读 · 2024年6月13日
让每艘舰艇都成为航母:人工智能如何彻底改变海空领域
战争算法:人工智能在武装冲突决策中的应用,ICRC视角
专知会员服务
113+阅读 · 2023年10月28日
Gartner 报告:人工智能的现状与未来
InfoQ
14+阅读 · 2019年11月29日
小样本学习(Few-shot Learning)综述
PaperWeekly
120+阅读 · 2019年4月1日
精品教材-《Grokking深度学习》分享
深度学习与NLP
13+阅读 · 2019年1月19日
python语音识别终极指南
AI100
13+阅读 · 2018年4月5日
深度学习时代的目标检测算法综述
AI前线
12+阅读 · 2017年9月22日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2013年12月31日
国家自然科学基金
95+阅读 · 2009年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
484+阅读 · 2023年3月31日
Arxiv
175+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2013年12月31日
国家自然科学基金
95+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员