As systems engineering (SE) objectives evolve from design and operation of monolithic systems to complex System of Systems (SoS), the discipline of Mission Engineering (ME) has emerged which is increasingly being accepted as a new line of thinking for the SE community. Moreover, mission environments are uncertain, dynamic, and mission outcomes are a direct function of how the mission assets will interact with this environment. This proves static architectures brittle and calls for analytically rigorous approaches for ME. To that end, this paper proposes an intelligent mission coordination methodology that integrates digital mission models with Reinforcement Learning (RL), that specifically addresses the need for adaptive task allocation and reconfiguration. More specifically, we are leveraging a Digital Engineering (DE) based infrastructure that is composed of a high-fidelity digital mission model and agent-based simulation; and then we formulate the mission tactics management problem as a Markov Decision Process (MDP), and employ an RL agent trained via Proximal Policy Optimization. By leveraging the simulation as a sandbox, we map the system states to actions, refining the policy based on realized mission outcomes. The utility of the RL-based intelligent mission coordinator is demonstrated through an aerial firefighting case study. Our findings indicate that the RL-based intelligent mission coordinator not only surpasses baseline performance but also significantly reduces the variability in mission performance. Thus, this study serves as a proof of concept demonstrating that DE-enabled mission simulations combined with advanced analytical tools offer a mission-agnostic framework for improving ME practice; which can be extended to more complicated fleet design and selection problems in the future from a mission-first perspective.


翻译:随着系统工程(SE)的目标从单体系统的设计与运行演变为复杂系统体系(SoS),任务工程(ME)这一学科应运而生,并日益被SE界接受为一种新的思维方式。此外,任务环境具有不确定性和动态性,任务结果直接取决于任务资产如何与环境交互。这证明静态架构是脆弱的,并呼吁为ME采用分析严谨的方法。为此,本文提出了一种智能任务协调方法,该方法将数字任务模型与强化学习(RL)相结合,专门解决自适应任务分配与重构的需求。更具体地说,我们利用一个基于数字工程(DE)的基础设施,该设施由一个高保真数字任务模型和基于智能体的仿真组成;然后,我们将任务战术管理问题表述为马尔可夫决策过程(MDP),并采用通过近端策略优化训练的RL智能体。通过将仿真作为沙盒,我们将系统状态映射到动作,并根据实现的任务结果优化策略。基于RL的智能任务协调器的效用通过一个空中灭火案例研究得到验证。我们的研究结果表明,基于RL的智能任务协调器不仅超越了基线性能,而且显著降低了任务性能的变异性。因此,本研究作为一个概念验证,表明由DE支持的任务仿真与先进分析工具相结合,为改进ME实践提供了一个与任务无关的框架;未来可以从任务优先的视角,将其扩展到更复杂的机队设计与选择问题中。

0
下载
关闭预览

相关内容

AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员