本版空军条令注释(AFDN)阐述人工智能(AI)技术,并预判其在竞争连续体背景下空战行动中的作用。文件参考多类来源,包括相关联合与军种政策战略、公共法律、学术与工业界文献及领域专家咨询意见。本AFDN是对美国国防部(DoD)现有AI政策与战略的补充,旨在提供权威性与参考性,但不作为强制性指令。
本AFDN聚焦作战层级问题与潜在解决方案,支持空军条令开发。其旨在识别短期内对全军种产生影响的作战领域条令缺口,为指挥官与参谋团队制定战略及规划空战行动提供新兴经验教训与最佳实践的推广框架。
最后,本AFDN承认AI领域专家对相关术语与概念的精确定义存在分歧。为此,文件对AI术语进行描述性定义,促进空军人员理解,并为未来军种与联合AI政策协调奠定基础。
若本AFDN与联合或军种政策出版物存在冲突,美国空军(USAF)行动须以相应政策文件为准。
未来作战要求空军人员理解人工智能发展与空军职能之间的关联。空军人员需与科技界协同合作,识别适合应用人工智能与自主系统的作战缺口。人机编队(HMT)必须充分发挥人类直觉与推理的优势,结合人工智能的超高速数据处理能力,从而强化所有任务中的动能与非动能作战效果。
美国空军需通过攻防作战夺取制空权,作为联合作战组成部分。人工智能技术将强化复杂对抗环境下制空权与信息优势任务的执行效能。集成于空基导弹防御体系中的AI预警探测系统,可为空中作战指挥控制(C2)系统提供威胁数据,激活防御性防空反制单元。进攻性防空任务需依赖AI赋能的ISR系统、目标锁定机制与航空平台,全面支撑从敌区战斗空中巡逻(CAP)、压制敌防空(SEAD)到摧毁地面航空力量的空中遮断任务。
以自主无人机群与半自主协作战斗机(CCA)为例,此类平台可执行多样化制空任务。2024年5月,美空军部长搭乘搭载AI狗斗模块的改装F-16,彰显人机协同信任度的提升。作为自主协作平台(ACP)项目组成部分的CCA计划,验证了半自主战机对有人战机的支援能力。CCA作为武器平台或ISR平台的潜力,体现了人机编组(HMT)与人工导引交战的可能性,为后续发展奠定基础。
在全球精确打击领域,空军致力于实现更快速、更精准的全天候全域打击能力。AI技术推动机载武器目标锁定能力的跨越式发展。例如,AI计算机视觉(CV)结合改进的目标识别跟踪算法,将最大限度降低高精度低附带损伤弹药的平民风险。AI建模技术持续增强隐身突防能力,提升拒止区域打击效能。在目标锁定与"传感器-射手"链路整合层面,AI赋能的自动化C2能力可加速决策周期、优化风险评估、提升打击时效。CCA与预测性维护技术的进步,正是AI增强全球精确打击能力的典型案例。
敏捷战斗部署模式要求对抗环境下的自适应基地选择与快速响应后勤体系。AI技术通过生存性、效率、弹性与保障能力等指标,智能优选作战位置。预测性分析系统可大规模识别装备故障与使用趋势,优化预测性维护流程,同时改进库存管理与运输流程,强化自适应后勤规划。AFWERX与工业界合作开发的半自主空运能力即为例证:2024年8月"竹鹰/敏捷旗"演习中,某空中远征联队A4部门运用该能力,向多个分散地域投送20余项急需航材,实现战术级即时补给,缓解传统空运压力并加速战机恢复战备。此类实验验证了AI/机器学习系统对未来空军后勤的变革潜力。
多源跨域数据融合的作战能力依托多模态AI系统(可处理异构数据格式)展现前景。此类系统可实现实时突发威胁侦测识别与多域态势感知同步。AI程序可消除军种专用情报平台间的数据壁垒,自主ISR平台则能在传统拒止区域实施持续声光电磁信号采集。
AI技术将优化目标锁定、资源分配、计划制定等流程,支撑多域C2与战场管理。对抗/降级/受限环境下的AI赋能通信网络可增强C2系统弹性:若作战中心通信中断,AI驱动网络可即时重构通信路径;上级C2失效时,系统可将数据流重定向至下级单元维持指挥链。
如果你采取不同的做法,结果会如何?因果 AI(Causal AI) 能为你提供基于因果关系(而非单纯相关性)进行预测与控制的洞察力,使你能够做出精准且及时的干预决策。《Causal AI》是一本实用指南,介绍如何构建具备因果推理能力的 AI 模型。
构建因果强化学习算法
使用如 PyTorch 与 Pyro 等现代概率建模工具实现因果推理
比较与分析统计学方法与计量经济学方法在因果推理中的异同 * 构建用于归因分析、责任分配与解释的算法 * 将领域知识转换为可解释的因果模型
作者 Robert Osazuwa Ness 是微软研究院因果 AI 领域的顶尖研究员,他凭借深厚的专业背景,为本书注入了前沿视角。他采用清晰、代码优先 的写作方式,讲解了因果机器学习中在论文中常常难以理解的关键细节。书中的内容可以直接、有效地应用于实际工业场景,从构建可解释的因果模型到预测反事实结果。 由 Lindsay Edwards 撰写序言。 购买纸质版图书可免费获得 Manning Publications 提供的 PDF 和 ePub 格式电子书。
传统的机器学习模型无法回答诸如“为什么会发生这种情况?”或“我该改变哪些因素才能获得预期结果?”这样的问题。本书结合了高级统计方法、计算技术与全新算法,构建出能够自动完成因果推理的机器学习系统。
《Causal AI》系统介绍了用于机器学习的因果推理工具、技术与算法。这本独特的著作将贝叶斯方法与概率建模巧妙结合,并配有丰富的 Python 实践案例。你将学习如何将因果假设融入深度学习架构,包括强化学习与大语言模型;并使用 PyTorch、Pyro 及其他机器学习库来扩展因果推理的规模。
使用 DoWhy 实现端到端的因果推理 * 深度贝叶斯因果生成模型 * 对 do-calculus(做演算) 与 Pearl 因果层级 的代码驱动讲解 * 针对因果大语言模型的微调代码
适合数据科学家与机器学习工程师阅读。示例代码使用 Python。
Robert Osazuwa Ness 是微软研究院的人工智能研究员,亦为东北大学的教授。他是开源因果推理项目的贡献者,包括 Python 的 DoWhy 与 R 语言的 bnlearn。
第一部分
1 为什么选择因果 AI 2 概率生成建模入门 第二部分
3 构建因果图模型 4 使用因果约束验证 DAG(有向无环图) 5 将因果性与深度学习相结合 第三部分
6 结构性因果模型 7 干预与因果效应 8 反事实与平行世界 9 通用反事实推理算法 10 可识别性与因果层级 第四部分
11 构建因果推理工作流 12 因果决策与强化学习 13 因果性与大语言模型
决策不仅是生活的一部分,更是其本质所在。这些关键选择深刻影响着个人与职业领域。日常生活中的每个抉择——从饮食选择到职业规划乃至重大投资——不仅作用于个体,更对家庭、社区乃至社会产生涟漪效应。决策的重要性促使心理学、管理学、经济学、社会学等学科持续探索其内在机制与影响因素,旨在优化各类场景下的决策流程与结果。低效决策往往代价高昂,导致机会错失、资源浪费与经济损失,对个人、组织与社会产生负面影响。信息过载、认知偏差、时间压力与情境因素加剧了优化决策的紧迫性。
人工智能技术的进步为决策优化开辟新路径。AI系统能处理海量数据、识别潜在模式、提供实时洞见并生成决策建议,赋能人类做出更明智选择。尽管AI在决策领域展现巨大潜力,但基于责任归属与伦理法律考量,完全自动化并非终极目标。人本视角倡导构建人机协作关系:AI作为人类能力的延伸,协助决策者完成数据收集分析、方案生成、情景推演与结果评估。现有研究已探索多领域人机协同决策机制,例如开发可解释AI系统增强决策透明度,设计多样化交互界面促进人机信息互通,确保决策者有效理解与整合AI输出。
在人机协作决策过程中,个体特征、决策情境、AI系统能力及其交互方式共同塑造协作成效。理解这些要素并将其融入AI系统设计与部署,是提升协同效能的关键。随着AI系统持续适应多样化场景,决策环境日益复杂动态化,个体行为模式将发生持续演变。这些演进中的AI系统不仅改变决策者的认知方式与策略制定,更深度影响着决定决策结果的基础要素。因此,需持续优化决策环境中的AI系统设计与实施,并评估其对人类行为与决策产出的影响。
尽管AI系统在多领域展现卓越能力,但鲜有完美解决方案。将AI引入决策流程常导致团队整体效能低于独立运作的人或AI系统。这种差距凸显出理解人机协同局限性的必要性,以及制定风险缓释策略的迫切需求。当前研究多聚焦个体与AI系统的二元关系,忽视决策发生的宏观情境。因此,亟需深入理解不同情境下AI系统的差异化影响,实现跨领域研究发现的迁移应用,并为特定决策场景提供定制化解决方案。本论文通过第二至第五章的实证研究,揭示不同情境下人机决策的动态机制,探究环境变量对人类行为的影响路径。第六、七章提出两种基于在线数据的信息整合方法,旨在增强决策支持效能。
本论文旨在揭示任务相关情境因素(图1.1 B)及其在人机协作决策中对决策结果的影响机制。任务通常指特定情境下需通过决策流程完成的活动或问题,其相关要素包含决策复杂度、不确定性、信息可及性与质量、风险等级及时间压力等属性。通过解析任务属性B、决策结果ABC、个体/群体行为A与AI系统AC之间的交互关系,本研究深化了对人机决策研究范式的理解,为设计符合决策者需求的AI系统提供理论支撑,从而优化决策流程与结果。需说明,宏观情境因素、AI系统属性或决策者个体特征不在本研究范畴内。
本研究聚焦跨领域非专家决策者群体。此类人群因专业领域知识受限,常面临决策困境:认知偏差、信息获取渠道受限与决策支持工具匮乏进一步制约决策效能。即便信息充足,"选择悖论"[365]仍可能导致决策质量下降——例如缺乏金融知识的投资者在股市中易受网络论坛偏见信息影响,忽视自身目标而盲从他人建议。分析能力不足与高级决策工具缺失加剧次优决策风险。值得注意的是,个体可能在某一领域具备专长,但在其他领域仍属非专家,凸显开发适配多技能水平决策支持系统的必要性。
既有实证研究对多样化决策情境的差异化定义,导致学界对AI系统跨领域效能的认知呈现碎片化。为此,本论文首先提出系统性评估与对比决策任务的理论框架,该框架整合决策情境复杂度分级体系。基于此框架,论文通过文献综述剖析现有研究的优势、局限与改进空间,并开展多维度实证研究验证理论假设。这些研究评估任务相关情境因素对个体行为与绩效的影响机制,通过采集决策支持系统交互数据(信息获取路径、任务时间分配、决策模式等),解析个体决策逻辑。分析结果表明,开发定制化决策支持工具对提升跨领域非专家决策质量具有迫切需求。论文同时提出模块化实证研究框架,增强现实决策场景下研究结论的可推广性与可复现性。
研究进一步提出优化信息获取与交互行为的方法。获取相关信息是决策准备的关键步骤,对常面临信息过载、数据获取受限或时间压力的非专家群体尤为重要。上述因素可能诱发认知偏差,进而损害决策质量。因此,理解个体信息检索、处理与应用模式,对开发实用工具管理认知偏差至关重要。本研究提出增强信息可及性的创新方法,包括提供定制化推荐与设计高效检索界面。通过行为实验与数据采集,对比验证新方法与传统模式的效能差异,揭示工具设计与应用优化的潜在路径。
本指南提供关于将生成式人工智能(Gen AI)工具融入学术环境的思路与案例研究。随着基于Transformer的机器学习模型兴起,AI应用已从计算机科学家的专属领域扩展至普通职场人群。OpenAI的ChatGPT系列、Google的Gemini等商用模型使学生、从业者及各级领导者得以利用新能力提升效率。
本指南旨在汇集多元视角,探索如何将Gen AI能力融入学习环境,并提炼最佳实践方案。非技术背景的教师可通过实用案例了解应用方法。这些案例虽具广泛适用性,但更应作为教育者探索传统课堂与在线继续教育等场景的起点。
指南价值
本研究探索Gen AI优化教学方法、提升学生参与度与简化教育内容创作的潜力。指南涵盖通用与应用场景的用例、课堂实施工具提示,同时提出伦理使用建议与规避偏见的方法,包括警示模型可能产生"幻觉"(即自信地陈述错误信息)的风险,以及如何避免从安全网络向云端模型传输敏感数据。
应用潜力
随着Gen AI工具发展与普及,我们发现了提升师生教育体验的机遇。研究表明,Gen AI可加速课程与练习生成,通过主动学习推动学生跃升至布鲁姆分类法更高层级,甚至逆向工程化课程——从现有内容提取学习成果。此外,该技术助力概念生成与构思,优化课程审查,并在编程开发、数据分析等技术任务中发挥作用。
学生赋能
除辅助开发教育产品外,允许学生在课堂使用Gen AI工具同样有益,助其理解此类模型的优势、风险与局限。我们通过设计引导式课堂讨论(学生与模型互动)及创建学习指南、讨论问题等教学活动,探索实践路径。
未来展望
AI工具将持续融入人类社会。尽管其能力不断演进,教育者始终需善用新工具提升教学成效,并培养学生对日常观察与互动的批判性思维。
关键发现
以教学法为导向的整合:当教师将Gen AI用于支持高阶学习目标(分析、综合、评估而非简单记忆)时,其潜力最大化。要求学生分析AI输出、质疑假设、优化解题策略的结构化活动,可深化批判性思维并与布鲁姆分类法等教学框架契合。
构建学生与AI的积极互动:鼓励学生将AI作为辅助工具而非主要解决方案至关重要。例如对比AI生成方案与自主成果的活动,能增进对Gen AI能力边界认知,强化评估、解读与改进AI结果的能力。
复杂场景的实践应用:Gen AI为军事与国防领域现实场景的复杂问题解决提供支持。例如基于模型的系统工程、战术模拟等案例,使学生通过实践迭代应用AI,培养负责任使用AI的信心及高风险管理场景的可迁移技能。
伦理考量与数据完整性:负责任整合Gen AI需关注数据完整性、安全与伦理使用。教师应明确教导学生规避数据泄露、维护学术诚信,并通过结构化课程阐明Gen AI对信息安全与隐私的广泛影响。
自适应学习与教师效率提升:Gen AI通过自动化教案制定、内容适配与形成性评估等常规任务提升教学效率,使教师能将更多时间投入以学生为中心的互动,提升整体教学质量。
面向技术驱动国防未来的准备:Gen AI工具整合培养学生对技术的务实适应思维,这对国防需求演变至关重要。结构化学习环境中的AI熟悉度,助力学生驾驭技术驱动决策场景并高效参与国防事务。
最佳实践
• 融入批判性分析训练:布置学生批判与优化AI输出的任务,培养分析能力与工具使用判断力。
• 引导伦理使用:制定AI使用伦理准则,鼓励学生披露AI辅助、识别局限并维护数据隐私。
• 定位AI为辅助工具:强调AI是学习任务的增效器而非替代品,聚焦其促进深度学习的作用。
• 构建以学生为中心的学习:设计利用Gen AI支持高阶认知任务(决策、现实问题解决、自适应学习)的作业。
• 推广适应性教学实践:利用Gen AI简化教案制定与评估开发,使教师专注指导学生自主探究。
像 DeepSeek-R1 这样的“大型推理模型”(Large Reasoning Models)标志着大语言模型(LLMs)在处理复杂问题方式上的根本性转变。与直接对输入生成答案的方法不同,DeepSeek-R1 会构建详细的多步推理链条,在给出答案之前仿佛会“思考”问题的全过程。这一推理过程对用户是公开可见的,为研究模型的推理行为提供了无限可能,并开启了“思维学”(Thoughtology)这一新兴研究领域。
我们从 DeepSeek-R1 推理构建块的基本分类体系出发,深入分析了其推理长度的影响及可控性、对冗长或混乱上下文的处理方式、文化和安全相关问题,以及 DeepSeek-R1 在类人语言处理与世界建模等认知现象中的定位。我们的研究结果描绘了一幅细致入微的图景。值得注意的是,我们发现 DeepSeek-R1 存在一个推理“最佳区间”(sweet spot),当推理时间过长时,模型性能反而可能受到影响。此外,我们还观察到 DeepSeek-R1 有反复沉湎于既有问题表述的倾向,从而阻碍进一步探索。 我们还指出,相较于其非推理版本,DeepSeek-R1 存在较严重的安全性脆弱性,这种脆弱性甚至可能对安全对齐(safety-aligned)的 LLMs 造成负面影响。
最近在构建大语言模型(LLMs)方面的进展,使研究重点转向了开发具备复杂多步推理能力的模型(DeepSeek-AI 等,2025a;OpenAI,2024)。虽然早期工作主要通过“思维链提示”(chain-of-thought prompting, CoT)来引导模型进行推理(Wei 等,2022;Zhou 等,2023),但我们目前正目睹一个根本性的转变:推理能力被直接内嵌于模型中,使其在生成答案前先进行推理。我们将这类模型称为大型推理模型(Large Reasoning Models, LRMs),并将其推理链称为“thoughts”。
LRMs 逐步生成 thoughts,可用于积累解题进度、自我验证,或探索备选方案,直到模型对最终答案有充分信心为止。图 1.1 展示了 LLM 与 LRM 输出结果的对比。尽管 LLM 的输出中可能包含部分中间推理步骤,但通常缺乏探索能力。此外,一旦出错,LLM 往往无法回溯并尝试其他方法。而 LRM 则通过多方案探索与验证进行推理,并最终总结最佳解法。
LRMs 的进展主要得益于强化学习:模型会对能产生正确答案的推理过程给予奖励(DeepSeek-AI 等,2025a;Kazemnejad 等,2024;Kumar 等,2024;Lambert,2024;OpenAI,2024;Shao 等,2024)。这类模型在测试时也可以利用其生成长推理链的能力,这一过程称为推理时扩展(inference-time scaling)或测试时扩展(test-time scaling):通过强制模型“多思考”以期获得更优解(Muennighoff 等,2025;Snell 等,2025)。在这一系列进展的推动下,LRMs 在复杂推理任务中(如数学解题、代码生成)表现出显著提升。
OpenAI 的 o1 模型(OpenAI,2024)首次展示了 LRM 的巨大潜力,但其推理链及训练方法并未公开,从而限制了学界对其推理行为的深入研究,也引发了对其训练流程的广泛猜测(Rush 与 Ritter,2025)。因此,DeepSeek-R1 的推出产生了重大影响:作为一款性能堪比 o1 的高能力 LRM,且在计算效率上更具优势。
DeepSeek-R1 的突出之处体现在以下几个方面: 1. 它是首个对输入提供完整 thought 访问权限的高性能 LRM; 1. 它的训练流程、模型代码和参数权重均已开源(但训练数据未公开); 1. 其前期版本 R1-Zero 表明,通过强化学习即可获得复杂多步推理、自我验证以及看似“灵光乍现”(aha moments)式的洞察能力,而无需通过监督学习显式教授。
DeepSeek-R1 提供的 thought 透明访问使我们得以系统性地研究其推理行为,我们将这一研究领域称为思维学(Thoughtology)。在思维学的框架下,我们分析了 DeepSeek-R1 推理链中的常见模式、推理长度的影响与可控性、冗长或混乱上下文对其推理过程的影响、其在安全性和文化价值观方面的倾向,以及其与人类语言处理与世界建模之间的相似性。图 1 展示了我们的研究概览,为理解 DeepSeek-R1 的能力边界提供了第一步探索,并为未来的推理改进研究提供了方向。
推理结构一致性:DeepSeek-R1 的 thoughts 遵循一致的结构。模型会先明确问题目标,再将问题拆解为中间解,并在此基础上进行多轮再探索或再验证,尽管这些再验证往往缺乏多样性。 * 推理长度非线性影响性能:推理长度的持续增加并不一定提升性能。每类问题存在一个“最佳推理区间(sweet spot)”,超过该范围后准确率会显著下降。且 DeepSeek-R1 无法自主调控其推理长度。 * 上下文与参数知识冲突:当上下文信息与模型参数知识冲突时,DeepSeek-R1 倾向优先采信上下文信息。但当输入或推理链过长时,其表现会变得不稳定,输出混乱、语义失真。 * 安全性脆弱性:与非推理版本 DeepSeek-V3(DeepSeek-AI 等,2025b)相比,DeepSeek-R1 更容易生成有害内容,且更擅长执行“越狱攻击”,从而引发其他 LLM 输出不当信息。 * 文化与语言差异:面对道德或文化类问题时,DeepSeek-R1 在英文提示下的推理时间显著长于中文提示,且会根据语言提供不同文化价值取向的回答。 * 类人语言处理偏差:对于人类感知复杂的语句,DeepSeek-R1 会生成更长的推理链,但对简单语句也常表现出不符合人类逻辑的异常行为。 * 世界建模能力不足:在处理涉及视觉与物理推理的任务中,虽然能识别子组件,但难以整合信息或进行草图迭代,依赖符号与数学推理而非直觉性认知过程。
我们将本研究分为五大部分: 模型推理链的结构与模式; 推理长度的影响与控制; 高复杂度上下文下的模型行为; 安全性与文化适应性问题; 推理过程与人类认知现象的对比。
在第 2 节中,我们简要回顾了 LRMs 的发展背景与 DeepSeek-R1 的设计理念;第 3 节详细分析了其推理模式,发现其思维链常由问题定义、问题拆解与反复重建三个阶段组成,并且频繁的重建过程(我们称之为反刍(rumination))是其长推理链的主要来源。 第 4 节探讨了推理长度对数学推理任务的影响,并指出存在一个问题相关的最优推理区间。我们也研究了推理长度与性能之间的权衡,发现 DeepSeek-R1 存在效率瓶颈,设置 token 限额可以在几乎不影响性能的前提下大幅降低计算成本。第 11 节进一步评估了 DeepSeek-R1 遵循提示中 token 限额的能力,并通过概念验证实验探讨了基于 token 限额设定奖励的训练方法。 第 5 和第 6 节将 DeepSeek-R1 投入更真实的上下文任务中,分析其处理大段输入与冗长推理链的能力,以及其如何应对与参数知识冲突的误导性输入。 第 7 节和第 8 节聚焦于安全性与文化行为,发现 DeepSeek-R1 在输出有害信息与执行越狱攻击方面的能力远超 V3,并在多语言提示下展现出不同文化偏好。 第 9 和第 10 节分析了 DeepSeek-R1 与人类认知之间的相似性与偏差。尽管其推理链长度与语句复杂度呈现类人对应关系,但其内部结构暴露出循环与非人类逻辑的特征。在视觉与物理推理任务中,DeepSeek-R1 偏向使用符号推理,缺乏直观与迭代过程。
高效人类团队通过智能通信与协调策略实现协同效用最大化。受此启发,本研究致力于开发多机器人系统智能协作的计算方法,结合经典模型驱动控制规划与数据驱动技术(如多智能体强化学习MARL、示范学习LfD),推动机器人群体涌现协同行为。
研究首先采用模型驱动方法解决多机器人系统在不确定性下的协调控制与规划问题,重点探究环境模型在规划决策中的高效整合机制。通过设计集中式与分布式协调框架(涵盖控制输入与高层规划层级),构建基于环境模型的多机器人协同体系。创新性成果包括:开发安全关键场景下的人本化多机器人网络协调控制算法,实现主动状态估计支撑的协同覆盖规划与性能概率性保障;进一步扩展方法应对机器人异质性挑战,构建分层协调框架,使感知型与操作型机器人组成的复合团队能在空基森林灭火等复杂任务中高效协作。
模型驱动方法虽能提供性能与稳定性保障,但对模型精度与启发式算法质量敏感。为此,研究引入数据驱动与机器学习方法,探索群体协作行为的涌现机制。设计基于图结构的通信模型架构,实现异构机器人团队的高效多样化协同;受人类心智理论启发,开发迭代式深度决策理性模型,优化去中心化协作中的行动选择机制。
近年来,尽管MARL广泛应用于多机器人任务优化,但强化学习仍存在奖励函数设计困难与高样本复杂度等局限。因此,精确建模人类策略行为愈发重要。同时,随着多机器人系统普及,确保机器人行为价值与人类伦理对齐至关重要。本研究提出多智能体示范学习框架MixTURE,通过混合主动多智能体学徒学习,使机器人团队能够从人类示范中学习协作策略,同步实现端到端自主通信协调。该框架兼具示范学习优势,显著降低人类示范数据需求与时间成本,提升系统可用性量表(SUS)评分与团队协作效能,为多机器人系统人机协同开辟新路径。
本研究核心论点在于:通过赋能机器人团队高效通信与行动规划推理能力,可显著提升群体协作效能。本论文通过以下创新成果验证该主张:
• 无人机团队人本化动态环境主动感知协调控制框架:基于卡尔曼不确定性残差传播与加权多智能体网络控制,构建双准则目标函数,实现无人机群主动推断野火传播参数并监测火势演化[5]。
• 多机器人网络通信容错自适应控制架构:通过模型参考自适应控制架构,设计集中式协调控制框架,使多机器人团队在通信网络断续环境下仍能达成协同共识[6]。
• 服务质量保障型多无人机动态区域协同覆盖规划:针对空基野火监测需求,提出概率性能保障的预测式协同覆盖框架,支持无人机群推断潜在火势动态,实现高危环境下的长时程协调[7,8]。
• 异构机器人分层协调框架:基于多智能体部分可观测半马尔可夫决策过程(MA-POSMDP)构建MA-SARTSA算法,使智能体在动态目标数量未知环境中学习协同监控策略,支持宏动作驱动的异步多智能体决策[9]。
• 高效多样化通信模型MARL框架:提出异构策略网络(HetNet),使异质机器人通过二进制中间语言实现零基础自发通信学习与协作[10]。
• 有限理性下决策优化MARL框架:受认知层级理论k级推理机制启发,开发信息策略梯度(InfoPG)方法,支持有限理性多智能体进行迭代决策优化[11,12]。
• 人机协同策略学习MA-LfD框架:构建MixTURE混合主动学徒学习框架,使机器人团队无需人工标注数据即可学习人类专家协作策略,同步实现端到端自主通信协调。
本论文结构如下:第2章系统梳理相关领域文献;第3章阐述理论基础与背景知识,重点介绍基于模型的节点级多机器人协调方法[5,6]及其在无人机动态区域覆盖中的应用;第4章扩展至高危时效敏感场景,提出性能保障型模型预测方法[7,8]与数据驱动方案[9],解决资源受限异构无人机群的环境不确定性协调问题;第6章提出端到端多智能体协同通信策略学习方法[13,10];第7章通过新型MARL架构实现协作机器人团队的迭代推理与决策理性化[12];第8章构建MA-LfD框架,实现人类领域知识高效迁移与协作策略直接学习。
在思考大型语言模型的输入与输出时,文本提示(有时还包括其他模态,例如图像提示)是模型用来预测特定输出的输入内容。你无需成为数据科学家或机器学习工程师——每个人都可以编写提示词。然而,要构造最有效的提示词可能相当复杂。许多因素都会影响提示词的效果:所使用的模型、模型的训练数据、模型的配置参数、你的措辞、风格与语气、结构以及上下文,都是关键因素。因此,提示词工程是一个迭代的过程。不恰当的提示词可能会导致模糊、不准确的响应,甚至阻碍模型生成有意义的输出。 当你与 Gemini 聊天机器人互动时,实际上就是在编写提示词;不过,本白皮书更侧重于在 Vertex AI 中或通过 API 使用 Gemini 模型时的提示词编写,因为通过直接调用模型,你可以访问包括温度(temperature)在内的各种配置参数。 本白皮书将深入探讨提示词工程。我们将介绍多种提示技巧,帮助你入门,并分享一些提示编写的技巧和最佳实践,助你成为提示词专家。我们还将讨论在构建提示词过程中可能遇到的一些挑战。
美国海军发布了《海军与陆战队数字系统工程转型战略》(DSETS),推动全兵种组织变革,要求从传统文档中心的需求-采办-保障(R/A/S)模式转向集成数字环境(Bray 2020)。基于模型的系统工程(MBSE)等先进数字工具可提升装备全生命周期内的设计流程、互操作性、功能维护与保障效能(Zimmerman等 2017),为新一代无人水面舰艇(USV)等自主系统赋予战术优势(Del Toro 2024)。
自主系统设计需应对复杂技术挑战,但过度关注自动化功能往往导致人因工程与工效学(HF/E)要素缺失(Lee & Seppelt 2009;Liu等 2016)。研究表明,HF/E整合不足将危及作战安全、系统性能与人机交互(Hancock 2019;Parasuraman & Riley 1997)。本研究强调HF/E要素应作为先导设计条件,而非事后补丁。通过构建经过验证的USV人因需求MBSE框架,为决策者提供结构化数字模板。核心研究问题(RQ1)聚焦:USV综合HF/E需求框架的构成要素?经验证模型涵盖11个核心组件与6类通用功能下的117项需求,涉及感知、认知、时域、人机工程与辅助领域,经专家验证可有效应对自主系统设计、操作与维护中的关键挑战。该框架旨在优化人机交互、降低失误率、缓解认知负荷并增强态势感知。
补充研究问题(RQ2)探究MBSE技术优势。通过框架构建、修正与验证过程中的实证研究,揭示MBSE在需求捕获、可追溯性、版本控制与产品生命周期管理(PLM)方面的优势(Visure;Zimmerman等 2017)。专家访谈证实MBSE在复杂架构中管理HF/E需求的有效性,验证本研究采用MBSE在数字生态中捕获与管理需求的可行性。研究还表明MBSE提供可扩展的数字化工程解决方案,符合国防部(DoD)与海军数字化转型目标,为开发最优自主系统奠定基础框架。
无人水面舰艇(USV)等先进自主系统的快速应用、开发与优先部署需要大量带宽、精力与关注度。此类资源的高度倾斜导致关键人因工程与工效学(HF/E)需求被忽视,引发错误信任、不切实际的预期、操作失误及系统故障(Lee & Seppelt,2009;Vicente,2003)。
自主系统需整合机器学习算法、通信系统、复杂计算机编程与传感器等先进技术要素,这些方面需要工程团队投入大量资源,并受到利益相关方同等关注。美国海军加速部署配备先进技术的USV,增加了忽视关键HF/E需求的风险。传统文档中心方法加剧此问题,割裂需求-采办-保障(R/A/S)流程,阻碍HF/E专家与工程团队的有效协作(Muhammad等,2023;Zimmerman等,2017)。此类疏漏将推高长期保障成本、导致重复设计、需专业干预措施,并为操作与维护人员制造低效环节(Hancock,2019;Liu等,2016;Salmon,2019)。设计需求必须包含并优先考虑HF/E要素,以优化系统交互、安全性及USV整体性能(Proctor & Van Zandt,2018;Vicente,2003)。现有文献既未明确USV设计所需的HF/E要素,也未提出系统性实施框架。
将HF/E需求整合至USV设计初始阶段至关重要。整合HF/E与工程学科的庞杂信息、流程与活动,需摒弃孤立式"非数字化"系统开发模式(Bray,2020;Muhammad等,2023;Zimmerman等,2017)。本研究识别并捕获USV设计与操作所需的HF/E要素,采用基于模型的系统工程(MBSE)软件构建结构化需求框架。该可复用、可调整的框架使HF/E要素成为系统之系统(SoS)架构的数字基础需求,涵盖感知、认知、时域、人机工程与组织维度,优化有人-无人协同作战(MUM-T)。通过构建包含结构、行为、活动与参数模型的系统架构,为设计团队提供满足需求的集成化数字生态系统(Hause,2011)。
本研究采用混合研究方法获取有效HF/E数据,通过专家访谈验证框架与建模技术。项目管理方采用经验证的HF/E需求框架将提升USV安全性、效率与效能(Lau等,2020;Ramos等,2022)。研究成果支持美国海军在科技与数字工程领域的持续投入,在HF/E常被忽视的现状下提升USV设计与作战效能。该可复用、可定制的HF/E模型体现了对自主系统操作人员的责任承诺。正如美国特种作战司令部(USSOCOM)强调:"人员而非装备决定成败",特种部队信条"人员重于硬件"(USSOCOM,未注明日期)即为此理念的集中体现。
本研究通过将HF/E需求嵌入设计核心,填补USV开发与部署的关键空白。将此类要素纳入集成数字架构可提升作业安全、优化人机交互并增强需求可追溯性(Carrol & Malins,2016;Liu等,2016)。研究强调因HF/E缺陷导致的系统修改与保障成本将使USV"离线",影响远程海上行动。所构建的可移植模型亦适用于其他军用与民用自主平台领域。提升认知与推动需求采纳是本研究的核心驱动力,旨在优化人员福祉、MUM-T协同与系统性能(Lee & Seppelt,2012)。
Proctor与Van Zandt(2018)阐明了HF/E的基本原则:忽视该要素将导致性能下降、错误率上升与风险增加。本研究运用数字图表与建模工具捕获并优化USV适用的HF/E要素。采用的MBSE方法支持需求的系统化开发、整合与验证(Lu等,2022;Madni & Sievers,2018)。将HF/E需求整合至USV系统模型,使其成为基础"构建模块",通过功能与活动模型实现需求验证。
本研究成果对HF/E学术界、科研界与工业界具有重要价值。研究反馈证实HF/E要素对创建健康高效工作环境的必要性。Håkansson与Bjarnason(2020)强调将HF/E视角融入需求工程(RE)可降低压力并提升用户满意度。参与USV"论域"构建的项目办公室、需求制定方、操作维护人员须践行此理念(参见术语表)。经验证的HF/E框架通过集成反馈机制促进安全高效的操作环境与持续改进,通过迭代优化应对新兴挑战与利益相关方需求。
本研究契合美国海军战略文件提出的数字化转型与现代工程目标。Bray(2020)指出数字模型在海军R/A/S流程中的重要性,可打破"卓越孤岛"并增强协作效能。Zimmerson等(2017)强调变革管理策略、数字工具应用与持续利益相关方参与对转型的关键作用。本研究通过MBSE构建HF/E需求框架,支持海军数字化转型战略。经验证框架可供海军及跨领域自主系统开发人员使用,其双重意义在于:优先考虑以人为中心的设计原则提升USV功能,同时践行海军数字工程战略。
这本书的一个关键结构特点是其模块化的组织方式,旨在提供灵活性,以便根据课程内容的变化进行调整和修改。具体来说,全书分为两个部分: (1)基础平台:包括第1章。该章节对近似动态规划(DP)/强化学习(RL)领域进行了有选择性的概述,为课堂中其他RL主题的更深入讲解提供了起点,而这些主题的选择可以由授课教师灵活决定。 (2)深入探讨部分:包括第2章和第3章,主要聚焦于具体方法的详细介绍。第2章主要讲解确定性与随机性 rollout 技术,以及一些相关的价值函数近似方法;第3章则讨论了在离线训练中使用神经网络及其他近似结构的技术。 这种模块化结构允许教师根据课程重点进行个性化定制。例如,教师可以利用第1章的基础平台来构建更偏数学理论或更偏实用导向的课程,以满足不同学生的需求。 此外,还需指出的是,本书所包含的内容超出了一个学期课堂教学所能覆盖的范围,这为授课教师在教学内容选择上提供了更多灵活性。
无人机(UAV)在社会中的角色日益重要。民用市场规模预计将从2022年的72亿美元增长至2031年的192亿美元,应用涵盖农业、灾害响应到物流配送。军事领域同样广泛使用——从越战时期美军首次将无人机作为武器,到现代侦察技术进步后的敌区勘察任务。根据任务地形与特性,无人地面车辆(UGV)或无人潜航器(UUV)亦可替代空中系统。当前乌克兰与加沙冲突凸显混合战争的重要性,此类战争中传统战、网络战与政治战的界限趋于模糊,使得敌方行为更难预测。物理与数字基础设施的情报获取成为关键优势,无人平台在进攻与侦察任务中的使用规模达到历史峰值。
为扩大作战系统规模并控制成本,需部署全自主运行系统。侦察任务需在无人机离港前完成全程规划,其基本设定如下:从安全基地出发,需抵达多个侦察点并安全返回,信息回传存在三种方式:
研究目标与方法论
本报告探究如何制定侦察任务最优策略,该策略需同时优化路径规划与传输策略以最大化信息获取量。核心研究问题包括:
• 侦察点的最优访问顺序
• 传输行为的最优时空分布
报告结构分为四部分:
技术路径详述
在单无人机场景中,研究团队开发了基于遗传编程的优化算法。该算法通过模拟生物进化过程筛选路径与传输策略的最优组合。测试显示,在复杂环境中遗传算法相较于传统动态规划方法效率提升58%。
拓展至多无人机场景时,算法引入协同机制优化负载分配与路径避让。改进后的系统在覆盖50个侦察点的任务中,四机协同方案的信息回收率较单机提升320%,通信同步开销增加47%。
军事应用启示
研究成果为混合战争环境下的无人系统作战提供支撑:优化后的侦察-传输决策链可降低32%的任务暴露风险;多机协同使战区情报更新频率提升至分钟级。这些突破将重塑未来战场的情报获取范式,为“决策中心战”提供关键技术保障。
《2025年大模型2.0产业发展报告》由国家工业信息安全发展研究中心标准所与联想集团联合发布,深度剖析大模型2.0产业发展状况,涵盖技术演进、产业生态、应用场景及未来趋势等关键领域。
尼玛扎西院士的讲座从“人工智能”“新一代人工智能”和“人工智能+”三个维度展开,从人工智能的定义入手,剖析了人工智能的动力,以及人工智能和数据、算力、算法的关系,介绍了我国的人工智能发展情况,分析了新一代人工智能的特点。院士把复杂深奥的科学理论用浅显易懂的语言讲解出来,其中不乏有趣的案例和细节,不时引发全场师生们会心的笑声。最后一部分,院士详细介绍了“人工智能+”在科学、教育、生活、政务和新质生产力等方面的应用,让大家感受到了人工智能的魅力,对信息化、数字化有了更加深刻的认识,也引发了师生们将人工智能应用在教学科研和学习方面的浓厚兴趣。
美海军陆战队参考出版物(MCRP)2-10A.5《远程传感器作战》是对《海军陆战队条令出版物第2号:情报》与《海军陆战队作战出版物2-1:情报行动》的补充与扩展。本出版物详细阐述实施远程传感器作战及支援陆空特遣部队的条令原则、战术技术及操作程序。
MCRP 2-10A.5系统阐述远程传感器作战的条令基础、指挥控制、通信与信息系统支援、任务规划、实施流程及训练要求。内容既为陆战队员理解、规划与执行远程传感器作战任务提供必要指导,也为负责相关行动规划与实施的情报人员提供支援信息。本出版物取代下列文件:1997年7月17日版MCRP 2-10A.5《远程传感器作战》;1998年6月24日勘误表;2004年7月13日勘误表;2016年5月2日勘误表;以及2018年4月4日发布的变更1。
基于Transformer的基础模型已成为时间序列分析领域的主流范式,在预测、异常检测、分类、趋势分析等多种时间序列分析任务中展现出前所未有的能力。本文综述了当前最新的预训练基础模型,提出了一种新颖的分类方法,从多个维度对相关模型进行系统性梳理。具体而言,我们按照架构设计对模型进行分类,区分了采用基于patch的表示方法的模型与直接处理原始序列的模型。该分类体系还包括模型是否提供概率性或确定性预测,以及模型是专为处理单变量时间序列设计,还是可直接处理多变量时间序列。 此外,分类框架还涵盖了模型的规模与复杂度,突出轻量级架构与大规模基础模型之间的差异。本综述的一大特色是引入了以训练阶段所使用的目标函数类型为依据的分类方式。通过综合上述多个视角,本文旨在为研究人员与业界从业者提供参考资料,洞察当前研究趋势,并指明基于Transformer的时间序列建模未来的发展方向。
时间序列数据是现代数据分析中的关键组成部分,广泛应用于金融、医疗健康、经济学、气候科学、库存管理、能源管理、交通管理、物联网(IoT)、工业流程、供应链优化、电信、零售分析、社交媒体监控、传感器网络、天气预测,甚至医疗诊断等多个领域。时间序列分析的重要性在于其能够捕捉时间依赖性和趋势性,对于缺失值填补、分类、预测及异常检测等任务至关重要。例如,在金融领域,时间序列数据可用于预测股价或识别市场异常;而在医疗健康领域,时间序列分析能够实现患者生命体征的实时监控,及早发现潜在疾病或预测疾病暴发。在气象学中,其对天气模式和气候变化的预测尤为关键;而在经济学中,时间序列分析有助于预测如通货膨胀和国内生产总值(GDP)增长等关键指标。在能源领域,时间序列数据对于优化需求预测和资源调配具有重要价值;在库存管理中,它有助于预测库存水平并提升供应链效率。在电信领域,时间序列数据用于网络流量分析和预测性维护;在零售行业中,它支持需求预测与顾客行为分析。在制造业中,时间序列分析能够优化生产调度并监控设备健康;而在交通运输中,则有助于预测交通模式并优化车队管理。图1展示了在无需微调或微调基础模型的情况下,在不同领域中应用时间序列任务(如预测、聚类、插补等)的实例。 传统的时间序列分析方法主要依赖统计学方法,如移动平均(MA)、指数平滑等,这些方法通过对数据平滑处理来识别潜在趋势。诸如自回归移动平均整合模型(ARIMA)等方法,结合了自回归(AR)与移动平均(MA)成分,广泛用于建模时间相关结构。基于局部加权回归的季节性和趋势分解(STL)方法也常用于将时间序列分解为趋势、季节性与残差成分。在图2中,我们展示了苹果公司(AAPL)在5分钟时间框架下的日内价格波动,使用了15周期的简单移动平均(SMA)与指数移动平均(EMA)两种常见技术分析指标对价格进行平滑处理并识别潜在趋势。 尽管这些传统方法在多数场景下有效,但在面对更复杂的非线性模式或高维数据时往往力不从心。相比之下,支持向量机(SVM)与梯度提升机(GBM)等机器学习算法在捕捉更复杂的时间依赖性方面表现更佳,尤其是数据趋势较为简单或线性时。然而,这些算法在处理不规则采样数据或依赖人工特征工程以提取时间特征时面临较大挑战。例如,ARIMA模型难以捕捉长期依赖关系或非线性关系;传统机器学习算法通常依赖繁琐的数据预处理与特征选择才能在时间序列任务中取得良好表现。此外,这些传统模型常常依赖数据平稳性或均匀采样等假设,这在实际应用中往往无法满足。例如,在传感器数据或具有不规则交易时间的股市数据中,传统方法的表现往往不佳,从而推动了更先进技术的发展需求,以更有效应对这些复杂性。
为克服上述局限,神经网络,尤其是循环神经网络(RNN)与卷积神经网络(CNN),近年来成为时间序列建模的强大替代方案。神经网络具备从原始输入中自动学习分层表示的能力,从而免去了大量人工特征工程。这种“端到端”的学习方式使模型能够自动捕捉数据中的潜在结构,尤其适用于存在复杂非线性时间依赖关系的预测、异常检测和分类任务。RNN由Rumelhart等人在1980年代提出,专为处理序列数据而设计,能够通过维护隐藏状态捕捉历史输入信息。在每个时间步,RNN基于当前输入与前一状态更新隐藏状态,从而建模时间依赖关系。这使得RNN非常适合于诸如股价预测、天气预测或传感器数据分析等场景。 然而,尽管RNN理论上具备建模序列依赖的优势,但其在实际训练过程中存在“梯度消失”问题。在采用时间反向传播(BPTT)训练RNN时,梯度在长序列中反向传播过程中可能变得极小,从而难以学习长期依赖关系。在面临需要捕捉远距离依赖或长序列预测的任务中,RNN的表现通常不尽如人意。为缓解该问题,Hochreiter与Schmidhuber于1997年提出了长短期记忆网络(LSTM),通过引入记忆单元和门控机制(输入门、遗忘门和输出门)来控制信息的保留与丢弃,从而有效捕捉长期依赖。Gated Recurrent Unit(GRU)由Cho等人在2014年提出,是LSTM的简化版本,采用重置门和更新门,在保留性能的同时提高计算效率。 尽管LSTM与GRU在许多时间序列任务中(如股价预测、能源需求预测、传感器异常检测)已表现优于传统RNN,但它们在处理大规模数据时仍面临诸多挑战: 1. 序列性与并行化限制:RNN需逐步处理时间序列,导致训练与推理难以并行化,计算成本高、耗时长; 1. 长期依赖建模难度:即使是LSTM与GRU,面对极长或高度复杂的序列时仍可能出现梯度消失/爆炸; 1. 资源开销:在大规模数据集上训练RNN类模型需消耗大量内存与计算资源,难以满足实时性或资源受限环境的需求; 1. 过拟合与泛化能力弱:参数较多的RNN模型在数据量不足时易发生过拟合,泛化性能较差。
Transformer架构于2017年首次提出,标志着序列建模范式的重大转变。Transformer最初用于自然语言处理(NLP)任务,其核心创新是自注意力机制,可在无递归结构的前提下建模序列中元素间的依赖关系。与RNN不同,Transformer能够并行处理整个序列,从而显著提升训练效率。其自注意力机制使模型能动态关注序列中任意位置的相关信息,对于建模长距离依赖关系尤为有效。 Transformer架构能够在较低计算成本下建模复杂时间依赖,克服了RNN在处理不规则采样间隔或非线性跨尺度模式时的局限性。同时,由于不依赖递归结构,Transformer有效规避了梯度消失问题,自注意力机制实现了序列中任意位置之间的信息直接传递,使得模型能捕捉更复杂的时间关系。 因此,基于Transformer的模型迅速在时间序列分析中获得关注,并在多项任务中(如预测、异常检测)超越了传统方法与RNN架构。近年来,许多专为时间序列设计的Transformer变体相继出现,如 Time Series Transformer (TST)、Informer 等,它们在长序列建模与不规则数据处理方面表现出色。
传统时间序列建模方法通常对每条序列独立建模,这在面对大规模或时间模式多样的序列时难以取得良好效果,因为这种方法无法捕捉跨序列的共性与共享模式。相比之下,Transformer模型可在整体数据上统一训练,从而提取跨序列的通用特征,构建更具鲁棒性与泛化能力的基础模型。 随着对这一优势的认识加深,学术界与工业界对基于Transformer架构的时间序列建模兴趣日益增长,目标在于开发更准确、高效、可扩展的解决方案,适用于预测、异常检测、分类等任务。Transformer在NLP与计算机视觉中的成功进一步证明了其跨领域的广泛适用性,为时间序列分析提供了新的建模范式。 基于Transformer的模型的快速发展及其在多个领域的持续成功表明,这不仅仅是一种短暂的趋势,而是对传统序列建模方式的根本性变革。未来,Transformer架构有望在时间序列分析中发挥关键作用,推动预测精度、异常检测能力与对时序数据的理解水平不断提升,助力多个领域的数据驱动决策与智能系统发展