现阶段距无人驾驶飞机或舰船独立参与战争仍有时日。但人工智能(AI)当前即可为海军提供一项极有价值的基础贡献:运用大语言模型(LLM)快速检索信息,彻底革新训练与作战模式。海军采购、训练并部署经认证可用于涉密信息网络的LLM系统,在舰船上构建基于知识库的智能参考体系。

“哥伦比亚号”核潜艇(SSN-771)部门军官曾埋头钻研鱼雷使用手册、液压系统设计规范、声纳操作规程、通信协议与导航条令等大量文献,以掌握战术运用能力。同样“托皮卡号"核潜艇(SSN-754)机电长更耗费大量时间研读《核动力装置操作手册》及相关出版物,力求精确执行核动力计划运维要求。担任值更官时协调多国演习的复杂条令检索过程,亦倍感压力。

试想若初级军官在资质认证时仅需询问LLM:“目标运动分析的核心原则是什么?”即可获得基于海军所有官方文献的详尽解答——ChatGPT等AI程序已证明此类技术完全可行。

更可畅想:当LLM系统吸纳海军所有声纳作战条令后,其应答目标运动分析的能力将何等强大。通过将每份手册、指令与海军通告纳入数据库,操作员与军官均可获得精准、实时且全面的专业应答。

以掌握对手最新战斗序列为例:曾耗费大量时间研判情报产品以识别对手海军反潜部队编制。LLM可瞬时提供此类信息。若将海军情报局等机构的实时情报产品整合入LLM数据库,操作员便能快速生成全景式敌情清单。

保守观点认为强制水兵查阅原始文献能培养更扎实的“照章办事”能力。但当今舰队文献多已电子化,信息获取媒介本就不会逆转。且LLM若经规范文献训练,其应答必然严格符合条令标准。此举节省的时间将大幅提升组织效能——无论是初级水兵备考资质认证、值更官查询最新航行限制,还是机电师验证核装置维护条件。

部分人担忧LLM差错可能导致操作失误。但需明确:以LLM为参考工具时,人类始终处于决策闭环。指挥官仍行使指挥权,督导官持续履行监督职责,值更团队多重校验机制仍可防范失误。现行分散式条令管理体系下,各舰自编操作指南、标准流程与常规指令本身同样存在错漏风险。而LLM数据库的错误可随条令更新即时修正。

必须区分底层数据错误(会误导人类与LLM)与LLM的“信息幻构”现象。当前主流LLM通过两种方式大幅抑制幻构:检索增强生成(RAG)技术,以及在应答正文标注引文来源。RAG将语言模型与外部队可信数据库(此处即海军出版物与指令)动态关联,使系统生成应答时直接从实体文件/数据集检索信息,避免依赖内部预测或“猜测”。多数LLM现已采用文内引注机制供用户验证可靠性。

相比国防部门正在推进的其他尖端技术,构建基于LLM的军事通用参考系统成本极低。该技术现成可用,可直接改造商用方案进行部署。

图:一名美海军空勤人员在美国军舰的黎波里(LHA-7)上学习训练手册。通过使用LLM来简化信息搜索,可以彻底改变训练和操作。该服务需要一个经过认证的LLM用于分类信息网络,作为船上基于参考的数据库。

物理实施挑战
在空间有限的舰艇/潜艇部署独立LLM需攻克工程难点:额外电力供应与散热需求必须保障。

LLM训练阶段(如GPT-3)能耗显著,约消耗1287兆瓦时能源。但部署后运行仅需适度电力——驱动模型的图像处理器是主要能耗源,典型LLM需5-10个处理器(单处理器功耗约325瓦),总功耗2-3千瓦。这对发电量数兆瓦的舰船供电系统虽属显著增量但可控。

新增LLM服务器需占用机架空间,其热负荷虽增强冷却系统压力却非不可为。舰船常临时加装特种设备(同样挤占空间并增加散热负荷),潜艇亦可应对临时携行设备的热负荷增量。相比快速获取全景实时信息的巨大收益,适度技术调整的代价微乎其微,使得LLM集成成为舰船系统可行且高价值的升级方案。

经过海军条令训练的LLM必将成为舰员的战略性辅助工具。该系统将大幅削减文献检索耗时,强化按章操作能力,提升关键信息可及性,完美契合海军运用尖端科技的使命承诺。

参考来源:USNI

成为VIP会员查看完整内容
4

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
中文版 | 生成式AI兵棋推演如何加速任务分析
专知会员服务
22+阅读 · 4月16日
美陆军的人工智能新政策:引领大语言模型的未来
专知会员服务
78+阅读 · 2024年5月27日
万字译文《海战中实施人工智能的挑战》2023最新报告
专知会员服务
195+阅读 · 2023年5月6日
智能无人作战系统的发展
科技导报
33+阅读 · 2018年6月29日
国家自然科学基金
23+阅读 · 2016年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
50+阅读 · 2011年12月31日
国家自然科学基金
22+阅读 · 2011年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
464+阅读 · 2023年3月31日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
23+阅读 · 2016年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
50+阅读 · 2011年12月31日
国家自然科学基金
22+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员