4月10日,美国海军陆战队利用生成式AI(gen-AI)进行实时外国情报分析的太平洋演习,一支2500人规模的远征部队在3艘军舰上测试AI系统,以极速处理数千份外国媒体报道,揭示生成式AI军事应用新领域。
在此次生成式AI军事应用中,美军使用基于韩国、印度、菲律宾与印尼数据训练的大语言模型(LLMs)。舰上军官借助AI系统从数千份外媒新闻、视频与图片中筛选信息,效率远超人工处理。例如,克里斯汀·恩岑豪尔上尉通过翻译与汇总当地新闻评估公众对美军存在的态度,该技术或可称为"生成式AI间谍"。强调:"采用传统方法显然耗时得多。"劳登上尉使用同一LLM系统为部队起草每日情报报告。
"我们仍需验证信源,"他指出,"但该系统在动态局势中显著提升效率。"该生成式AI参谋工具由前中情局人员创立的防务科技公司Vannevar Labs开发,五角大楼授予其9900万美元合同以扩展AI军事部署。
该工具利用来自180多国、80种语言的开源数据,通过聊天机器人界面检测威胁并分析观点。
战场信息日益失控,AI监视技术正成为将混乱转化为可理解信息的新型解读者,同时引发对机器学习决策的信任、问责与人类代价的争议。
当代战争产生海量数据——从视频流、无线电传输、社媒帖文、卫星图像到地方新闻——人类分析师已难以及时追踪。
防务领域生成式AI介入,对现代战场进行数字化转译,但这意味着无法识别噪音中的隐藏模式与信号。以Vannevar Labs的产品为例,其不仅收集信息,还尝试解读:翻译语言、检测威胁、测量民意、为决策者提供即时分析。在此过程中,AI不仅整理信息,更在"阅读"战场。
这种转变亦带来新难度。当机器推断某篇外媒报道传递敌意或和平信号时,它接管了传统依赖人类判断的职能。此转变影响深远——若模型误判意图或语气,可能导致错误军事决策、局势升级或威胁误判。
与人类不同,生成式AI军事应用无法自我辩解。其"判断"基于数百万个无法简单解释的变量与数据。核心困境在于:在战争混沌中,能否信任机器定义的"清晰"?若出现错误,责任由谁承担?
在追求数据高速处理的竞赛中,存在用AI防御系统速度取代思考、以效率置换共情的风险,批判性思维或遭削弱。
参考来源:insidetelecom