本文介绍了一种为战场环境量身定制的动态三维场景感知创新系统,该系统利用配备双目视觉和惯性测量单元(IMU)的无人智能体。该系统处理双目视频流和 IMU 数据,部署先进的深度学习技术,包括实例分割和密集光流预测,并通过专门策划的目标数据集加以辅助。通过集成 ResNet101+FPN 骨干进行模型训练,作战单元类型识别准确率达到 91.8%,平均交叉比联合(mIoU)为 0.808,平均精度(mAP)为 0.6064。动态场景定位和感知模块利用这些深度学习输出来完善姿态估计,并通过克服通常与 SLAM 方法相关的环境复杂性和运动引起的误差来提高定位精度。
在模拟战场元环境中进行的应用测试表明,与传统的 ORB-SLAM2 立体方法相比,自定位精度提高了 44.2%。该系统能有效地跟踪和注释动态和静态战场元素,并利用智能体姿势和目标移动的精确数据不断更新全局地图。这项工作不仅解决了战场场景中的动态复杂性和潜在信息丢失问题,还为未来增强网络能力和环境重建方法奠定了基础框架。未来的发展将侧重于作战单元模型的精确识别、多代理协作以及三维场景感知的应用,以推进联合作战场景中的实时决策和战术规划。这种方法在丰富战场元宇宙、促进深度人机交互和指导实际军事应用方面具有巨大潜力。