大模型(LLM)的兴起在自然语言处理领域引起了广泛关注,其涌现能力在各个垂直领域(如金融、医疗、教育等)也取 得一定进展。然而,大模型自身面临解释性不足、知识实时性差、生成结果存在虚假信息等诸多挑战。为了应对这些问题,知 识图谱与大模型的融合逐渐成为了研究热点。知识图谱作为一种结构化的知识模型,其真实性和可靠性,成为提高大模型解 释和推理能力的有力工具。同时大模型具备语义理解能力,为知识图谱的构建和更新提供了有力支持。因此,知识图谱和大 模型是互补的(本文称为图模互补)。本文系统性地介绍知识图谱与大模型融合的方法,分别从 1)大模型增强知识图谱,2)知 识图谱增强大模型,两个角度进行全面的回顾和分析。最后,本文从医学诊断预测和时间知识图谱出发,介绍图模互补的领域 应用,并讨论图模互补未来发展的方向,为知识图谱与大模型的进一步研究提供帮助。 近年来,自然语言领域出现了一项令人瞩目的 技术:大模型。大模型(LLM)是指通过超大规模文 本数据训练出来的神经网络模型,由预训练语言模 型(PLM)发 展 而 来,其 特 点 是 模 型 规 模 较 大,参 数 通 常 在 数 十 亿 乃 至 万 亿 级 别。相 较 于 传 统 的 预 训 练语言模型,大模型在处理复杂任务时表现出特殊 的 能 力(涌 现 能 力[1] 、推 理 能 力[2] )。相 关 研 究 表 明, 大 模 型 不 仅 能 够 理 解 和 处 理 大 规 模 的 文 本 数 据[3] , 同时还具备上下文学习能力[4] 和领域泛化能力。这 使得它们成为各种自然语言下游任务的通用选择, 能够轻松进行少样本迁移学习[5] 。如今,AI 领域中 涌现出许多具有代表性的大模型,例如对话式语言 大 模 型 ChatGPT[6] 、增 强 推 理 能 力 的 多 模 态 大 模 型 GPT-4[7] 等等。这些模型不仅在传统的自然语言处 理领域(如搜索引擎[8] 和机器翻译[9] )取得一定进展, 还在金融[10] 、医疗[11] 、教育[12] 等各种领域提供有效帮 助。大模型对传统的自然语言处理领域带来冲击, 促使学者重新思考通用人工智能的可能性[13] 。 目 前,虽 然 大 模 型 引 起 了 广 泛 的 关 注,但 它 仍 然 面 临 着 诸 多 挑 战,包 括 模 型 内 部 的 不 可 控 性,缺 乏解释性[14] 、无法保证知识实时性[5] 、语言数据质量 的 不 确 定 性,以 及 产 生 幻 觉 和 有 毒 信 息 的 潜 在 风 险[15] 。为了应对这些挑战,学者们开始思考将知识 图谱与大模型融合[5] 。知识图谱是一种用于表示和 存 储 知 识 的 网 络 图 形 结 构,其 中 节 点 表 示 实 体,边 表示实体之间的关系[16] 。知识图谱以其数据的真实 性而著称,这一特点可以有效地减轻大模型产生幻 觉 的 问 题 。 例 如 KELM 语 料 库[17] 、通 用 模 型 KG⁃ PT[18] 为大模型提供基于知识图谱转化的真实文本 信 息。大 模 型 作 为 一 个“黑 盒 模 型”其 输 出 结 果 通 常难以解释,而知识图谱内部的结构知识更接近人 类认知。因此,知识图谱可以提供一种解释和推理 知识的手段,探究大模型内部复杂的工作步骤和推 理 过 程。例 如 个 性 化 知 识 库 与 大 模 型 集 成 的 检 索 框 架 KnowledGPT[19] ,提 高 处 理 复 杂 搜 索 和 歧 义 的 能 力。此 外,知 识 图 谱 还 可 以 作 为 外 部 检 索 工 具, 帮助大模型解决公平、隐私和安全等问题[20] 。 如今知识图谱的规模越来越大,传统的图谱构 建、补全技术也面临许多难题,如数据获取、实体识 别、知识抽取和实体消歧等[21] 。大规模知识图谱的 构 建 往 往 需 要 投 入 大 量 的 人 力、物 力 和 时 间 成 本, 且 依 旧 无 法 保 证 知 识 图 谱 质 量 和 可 用 性。而 大 模 型 能 有 效 解 决 这 些 问 题。大 模 型 内 部 存 在 海 量 的 知 识 信 息,在 处 理 复 杂 的 文 本 数 据 信 息 时,能 够 迅 速地进行实体识别与抽取,有效应对知识构建和补 全的挑战[22] 。此外,链接预测是知识图谱推理和问 答 的 关 键 步 骤,在 零 样 本 和 少 样 本 学 习 中,大 模 型 同 样 能 够 有 效 地 挖 掘 实 体 间 的 逻 辑 关 系。根 据 知 识图谱和大模型的上述特点,本文认为知识图谱和 大模型是相互补充的,称为“图模互补”,图 1 为知识 图谱与大模型的优缺点总结。 知 识 图 谱 与 大 模 型 融 合 是 一 个 热 门 研 究 领 域[23~25] 。文献[25]提出了统一大模型与知识图谱的 前瞻性路线图,总结了现有的大模型与知识图谱的 先进技术,并讨论大模型与知识图谱融合的相关挑 战和发展方向。其整体路线划分与本文有所差异, 本文从作用功能角度进行划分,根据知识图谱和大 模型在领域中的地位,将其融合划分为两个不同的 类 别:大 模 型 增 强 知 识 图 谱 和 知 识 图 谱 增 强 大 模 型。并从增益的效果出发,将每个大类别细分为不 同的小类别,最后探究图模互补的领域应用。

成为VIP会员查看完整内容
63

“这是迄今为止关于构建LLM应用程序最全面的教科书——涵盖了AI工程师工具包中的所有重要主题。” ——Jerry Liu,LlamaIndex联合创始人兼首席执行官 摘要 在行业领袖的惊人反馈下,这本书是任何希望提高技能或深入了解AI世界并发展对生成式AI和大型语言模型(LLM)理解的人的端到端资源。它探讨了将“基础”LLM适应特定用例的各种方法,以提高其准确性、可靠性和可扩展性。由Towards AI团队中超过10人编写,并由Activeloop、LlamaIndex、Mila等专家策划,是未来技术堆栈的路线图。 本书旨在引导开发人员创建适合生产环境的LLM产品,利用AI在各个行业的潜力。它针对具有中级Python知识的读者。 这本470页的书中包含了什么? * 关于LLM、提示、检索增强生成(RAG)和微调的实践指南 * 使用LLM构建生产就绪应用程序的路线图 * LLM理论基础 * 从简单到高级的LLM技术和框架 * 带有真实世界应用的代码项目 * 可立即运行的Colab笔记本 * 社区访问和我们自己的AI导师

目录 第一章 大型语言模型简介 第二章 LLM架构和全景 第三章 LLM实践 第四章 提示简介 第五章 LangChain和LlamaIndex简介 第六章 使用LangChain进行提示 第七章 检索增强生成 第八章 高级RAG 第九章 代理 第十章 微调 第十一章 部署 专家对本书的看法 “这是一本真正出色的资源,从基础理论到代码和现代框架,逐步发展对LLM的理解。以研究趋势和框架为基础,培养你对未来发展的直觉。强烈推荐。” ——Pete Huang,The Neuron联合创始人 “这本书充满了端到端的解释、示例和全面的细节。Louis和Towards AI团队为希望扩展AI专业知识并将其应用于实际挑战的开发人员撰写了必读书籍,使其成为个人和专业图书馆中的宝贵补充。” ——Alex Volkov,Weights & Biases AI布道者兼ThursdAI新闻主持人 “这本书是我遇到的最全面的LLM概述。对于新手来说是极好的入门书籍,对于有经验的从业者来说是宝贵的参考资料。” ——Shaw Talebi,The Data Entrepreneurs创始人,AI教育者和顾问 无论你是希望提高技能的程序员,还是首次进入AI世界的软件学生,我们的书都适合你。从LLM的基础知识到掌握可扩展、可靠的AI应用程序的微调和RAG,我们每一步都将引导你前进。

成为VIP会员查看完整内容
62

引领未来的技术革新——人工智能大语言模型技术发展研究

在当前科技革命的浪潮中,人工智能(AI)不仅仅是推动科技产业革命的强大引擎,更是新质生产力的核心驱动力。AI正以无法抗拒的力量深刻塑造全球经济、社会及文化景观。自2023年起,大模型技术崛起为AI发展的新标杆,引发了一场深远的技术变革。这些技术产品的快速迭代和升级,已经成为全球科技竞争的关键因素和战略博弈的核心。 在这种快速变化的背景下,及时地监测和全面地分析技术进步尤为重要,同样也前瞻性的对未来技术发展方向进行深入思考。《人工智能大语言模型技术发展研究(2024)》报告通过对2023年以来大模型技术进展的系统梳理,不仅提供了对AI技术趋势的深刻见解,更为“人工智能+”策略的实施奠定了坚实的理论和实践基础,助力各行各业实现技术转型和升级。

技术革新的核心——大语言模型

大语言模型作为新一轮科技产业革命的战略性技术,正引发经济、社会、文化等领域的变革和重塑。从软硬件协同、数据丰富度到算法优化,本报告深入探讨了大模型的技术基石,并展望了其在多模态数据处理、自适应学习能力等方面的发展前景。

核心能力进阶

深层语境解析与知识融合 人工智能大语言模型的核心能力在于深层语境解析与知识融合。通过对海量数据的深度学习和分析,大模型能够准确理解人类语言的深层含义,并将其与丰富的知识库相结合,提供更为智能、精准的服务。

创新应用形态——智能体

报告特别关注了智能体的发展,这一新兴的技术形态正成为大模型研发的重要方向。从通用机器人智能体到零代码智能体构建平台,智能体的广泛应用展示了大模型技术的无限可能。

市场发展的风向标

报告不仅在技术层面提供了深刻见解,更从产业发展的角度,分析了国产大模型的应用场景正在不断拓展,从互联网、金融、制造业等领域逐渐延伸至医疗、教育、交通等更多行业,较为成熟的大模型的应用生态丰富多样,从多模态数据处理到智能客服,人工智能技术正推动各行各业的数字化转型;从消费者角度来看,对AI产品和服务的需求越来越注重个性化和定制化,期望获得更加贴近自身需求的解决方案,在此方面,大模型在中文内容的生成和推理方面构筑了明显的比较优势,为中文用户带来了更加精准和个性化的服务体验。

未来展望

面对未来,未来的大模型将更加注重多模态数据的融合和处理,以及在多应用场景下的自适应和迁移学习能力。这将使大模型能够更好地理解和适应复杂多变的实际应用环境。同时要注重强化隐私保护与数据安全等发展方向,推动大模型技术的可持续发展。

结语

《人工智能大语言模型技术发展研究》报告的发布不仅是对当前AI技术状况的深入分析,更标志着对未来科技方向的战略性评估与指引。报告全面展望了大语言模型作为下一代技术革命的核心,将如何继续引领全球科技创新和经济结构的转型。 随着人工智能核心技术的快速进步,大语言模型将不仅仅是技术领域的变革者,更将成为推动社会治理现代化、提高人民生活质量的重要力量。

成为VIP会员查看完整内容
64

随着 ChatGPT 等基于大模型的产品展现出强大的通用性能,学术界和工业界正积极探索如何 将这些模型适配到特定行业和应用场景中,即进行垂直领域大模型的定制化。然而,现有的通用大模 型可能无法完全适配特定领域数据的格式,或不足以捕捉该领域的独特需求。因此,本文旨在探讨垂 直领域大模型定制化的方法论,包括大模型的定义和类别、通用架构的描述、大模型有效性背后的理论 基础,以及几种可行的垂直领域大模型构建方法,期望通过这些内容为相关领域的研究者和从业者在 垂直领域大模型定制化方面提供指导和参考。

ChatGPT 以其卓越的通用性能重塑了人们对人工智能的理解。作为 ChatGPT 的核心,大语言模 型(Large language model)已经成为众多领域研究人员和专业人士改进工作流程的重要工具。通用大 模型通常在广泛的公开数据集上进行训练,这使得它们能够学习并解决各种常见问题,但这些数据集 无法完全覆盖某些特定领域的所有专业知识和技术细节,这导致尽管通用大模型具备广泛的通用知 识,却缺乏足够的知识深度来满足某些特定领域的复杂需求。因此,针对特定行业的需求来构建垂直 领域大模型变得尤为重要。垂直领域大模型,或称垂类大模型、行业大模型,是针对特定领域的数据和 应用而开发的大模型[1] 。与通用大模型相比,它们在训练过程中会使用大量特定领域的数据,从而能够 更准确地理解和生成与该领域相关的专业内容。 随着类 ChatGPT 的产品和神经网络模型的接连推出,“大模型”概念的范围也在逐步扩张[2‑4] 。鉴 于相关概念繁杂,为了确定本文的研究共识,需要对“大模型”概念进行定义并阐述其特点,从而奠定后 文对垂直领域大模型定制化的叙述基础。本文所提及的大模型(Foundation model),是在多模态大模型 (Multimodal large model)五模块框架(下文将详细介绍该框架)中,包含了能够实现其中一个或多个模 块功能的神经网络模型,且该模型符合以下特点: (1)大数据。使用覆盖了多种场景的大量数据进行模型的训练,为模型提供充足的知识。 (2)大参数。模型的参数量达到一定规模,足以将大量数据中隐含的知识固化到模型参数中。 (3)通用性。模型的输入数据格式和数据处理流程能够适配多种任务场景下的输入格式和需求。 (4)泛化性。模型拥有一定的泛化性,使其在未知数据域中依然具有良好性能。 根据大模型可处理的模态数量,可将大模型分为单模态大模型和多模态大模型: (1)单模态大模型。VGG[5] ,ResNet[6] ,GPT‑1 [7] ,GPT‑2 [8] ,GPT‑3 [9] ,GPT‑3.5 turbo[10] ,BERT[11] , GLM[12‑13] ,LLaMA[14] ,LLaMA‑2 [15] ,iGPT[16] ,LVM[17] ,BART[18] 和 T5 [19] 。 (2)多 模 态 大 模 型 。 CoDi[20],CoDi ‑ 2 [21],Claude ‑ 3 [22],GPT ‑ 4 [23],LLaVA[24],BriVL[25],Image‑ Bind[26] 和 NExT‑GPT[27] 。 在构建垂直领域大模型的过程中将面临一系列挑战,尤其是在数据获取和预处理阶段。比如,其 需要处理的垂直领域数据并不开源或难以获取,具有私密性;或是数据模态与通用大模型使用的中心 模态不同,导致无法迁移现成的大模型处理该数据;又或是垂直领域数据与预训练模型的数据域有所 不同,需要向预训练模型输入专业领域知识。垂直领域大模型应用方式灵活,涉及的应用领域繁杂,构 建难度大、开销大,涉及的技术安全问题至关重要,期望产生的经济效益高[28‑30] ,因此有必要对其构建方 法论进行深入探索和全面梳理,并总结出相应的方法论。 以往的综述文献都更多地关注大模型本身的发展[2‑4,31‑36] ,但对于垂直领域大模型的定制化方法论 方面缺乏详细的讨论。本文通过介绍垂直领域大模型定制的理论基础、垂直领域大模型的定制方法、 垂直领域大模型的应用实例,以及垂直领域大模型定制化的未来发展方向,为有意构建垂直领域大模 型应用的研究者及工作者提供模型定制方法论层面的参考。

成为VIP会员查看完整内容
64

人工智能技术的发展极大推动了智能博弈决策问题求解范式的变革,从最优解、均衡解到适 变解,如何构建基于生成式大模型的智能博弈自适应决策智能体充满挑战。博弈强对抗环境中兵力 分配和多实体协同是研究排兵布阵和作战协同的核心课题。基于技能、排序和偏好元博弈模型构建 的策略强化学习、策略博弈树搜索与策略偏好投票选择方法,设计了满足生成时规划的大模型智能 体架构。该架构可对齐指挥员意图,具有可行性、适用性、扩展性,可为自适应决策过程提供可解 释性策略推荐。从基座模型构建、目标引导博弈强化学习和开放式元博弈策略学习分析了关键技术 需求。期望为强化学习类模型、博弈学习类模型与生成式大语言模型结合的交叉研究提供参考。

为了推进美国战略与预算评估中心提出的“决 策中心战”,DARPA 于 2017 年提出了马赛克战概 念,兰德公司利用上校布洛托博弈(Colonel Blotto Game)研究了马赛克战作战资源分配问题[1]。作战 资源分配主要包括兵力、火力、武器和后勤等子问 题,上校布洛托博弈作为一类典型的兵力布势问题 模型[2],为排兵布阵问题研究提供了基准参考。作 为上校布洛托博弈模型的泛化形式,强权外交 (Diplomacy)这款桌游(特别是无通信版本)很好地 刻画了多方一般和多阶段不完美信息博弈的动态 交互过程[3]。为了利用智能博弈相关技术研究作战 协同问题,DARPA 启动“打破游戏规则的人工智 能探索 ”(Gamebreaker Artificial Intelligence Exploration)项目[4],致力于开发人工智能并将其应 用到现有的开放世界视频游戏中,以定量评估游戏 平衡,确定显著有助于游戏平衡的基本参数,并从 新功能、战术和规则修改等角度探索导致游戏不稳 定性的变量,旨在为美军创造更大的作战优势,或 在对手寻求优势时寻求对抗的平衡。 如何生成多种类型行动方案计划为指挥员推 荐策略选项是联合全联指控中为对手制造多重困 境(dilemma)的主要方法途径[5]。利用军事人工智能 技术辅助决策推荐是当前的研究前沿[6]。早期的一 些研究采用抽象桌游(abstract board games, ABG) 来实时分析大规模对抗问题,如 Stilman 等[7]基于 语言几何(linguistic geometry, LG)工具与博弈理论 构建的私人参谋长,Serge 等[8]基于语言几何与对 抗情报推理决策构建的计算机模拟程序 LG-RAID,其中语言几何作为软件程序的大脑负责 预测对手的作战行动方案。近年来,围绕多方对抗 问题,2020 年 DARPA 开展了针对“对战敌方战术 的构建性机器学习”(constructive machine learning battle for enemy tactics, COMBAT)项目[9],利用自 然语言处理提取非结构化文本信息,利用博弈论与 强化学习等方法生成应对美军的作战行动方案,旨 在为仿真环境提供敌军旅级兵力行动模拟。2023 年美国海军陆战队大学以 Command 为基准环境, 开展了将生成式人工智能应用于仿真与兵棋推演 的相关探索[10]。Hinton 等[11]分析了生成式人工智 能在兵棋推演领域的想定生成、对手 AI、红队等 方面的应用前景。许霄等[12]提出了作战行动序列引 导和约束的联合作战兵棋推演智能决策框架,设计 了目标驱动的自适应作战控制和任务式指令驱动 的战术任务策略优化模块。 人工智能技术的跨越式发展为智能博弈决策 问题求解定义了新范式,从传统的优化理论最优 解、博弈理论均衡解,逐渐过渡至如今的模型理论 适变解[13]。为智能指控系统构建多范式融合的博弈 决策策略推荐方法充满挑战。 本文围绕智能博弈自适应决策挑战,基于元博 弈模型设计了决策大模型智能体的指控思维链,以 满足生成时规划,最后从决策基座模型构建、智能 博弈决策策略学习和人机协同决策方式共三个方 面分析了关键技术需求。

成为VIP会员查看完整内容
60

来源:中国信息通信研究院

近几年,大模型推动人工智能技术迅猛发展,极大地拓展了机器智能的边界,展现出通用人工智能的“曙光”。如何准确、客观、全面衡量当前大模型能力,成为产学研用各界关注的重要问题。设计合理的任务、数据集和指标,对大模型进行基准测试,是定量评价大模型技术水平的主要方式。大模型基准测试不仅可以评估当前技术水平,指引未来学术研究,牵引产品研发、支撑行业应用,还可以辅助监管治理,也有利于增进社会公众对人工智能的正确认知,是促进人工智能技术产业发展的重要抓手。全球主要学术机构和头部企业都十分重视大模型基准测试,陆续发布了一系列评测数据集、框架和结果榜单,对于推动大模型技术发展产生了积极作用。然而,随着大模型能力不断增强和行业赋能逐渐深入,大模型基准测试体系还需要与时俱进,不断完善。

一、大模型基准测试发展概述 近几年,大模型推动人工智能技术迅猛发展,极大地拓展了机器 智能的边界,展现出通用人工智能的“曙光”,全球各大科技巨头和创 新型企业纷纷围绕大模型加强布局。如图 1 所示,2018 年,谷歌公司 提出基于 Transformer 实现的预训练模型 BERT,在机器阅读理解水 平测试 SQuAD 中刷新记录。同年,OpenAI 公司发布了第一代生成式 预训练模型 GPT-1,擅长文本内容生成任务。随后几年,OpenAI 相 继推出了 GPT-2 和 GPT-3,在技术架构、模型能力等方面进行持续创 新。2022 年 11 月,OpenAI 发布的 ChatGPT 在智能问答领域上的表 现引起产业界轰动。除了大语言模型,2023 年,OpenAI 还发布了多 模态大模型 GPT-4。同期国内大模型的发展也呈现不断加速态势,已 经发布了华为“盘古”、百度“文心一言”、阿里“通义千问”、腾讯“混元” 和智谱“清言”等 200 多个通用和行业大模型产品。

二、大模型基准测试现状分析 2023 年,大模型基准测试迎来飞速发展的一年,大模型的评测体 系、数据集、方法、工具如雨后春笋般出现。本章对已发布的大模型 基准测试成果进行简要介绍,主要分为评测体系、数据集和方法等, 以梳理大模型基准测试的整体发展趋势,并探寻未来发展方向。 (一)大模型基准测试体系总体介绍 与传统认为 Benchmark 仅包含评测数据集不同,大模型基准测试 体系包括关键四要素:测试指标体系、测试数据集、测试方法和测试 工具。指标体系定义了“测什么?”,测试方法决定“如何测?”, 测试数据集确定“用什么测?”,测试工具决定“如何执行?”。

(二)代表性的大模型基准测试体系 当前已发布的评测榜单背后均有相应的评测体系和方法,国内外 知名度较高的大模型基准测试体系包括:

  1. HELM HELM(Holistic Evaluation of Language Models)是由斯坦福大学 在2022年推出的大模型评测体系。该体系主要包括了场景(Scenarios)、 适配(Adaptation)和指标(Metrics)三个核心模块,每次评测都需要 “自顶而下”指定一个场景、一个适配模型的提示工程词和一个或多 个指标来进行。如图 10 所示,HELM 使用了几十个场景和多个指标 的核心集完成大模型评测,场景涉及问答、信息检索、摘要、毒性检 测等多种典型评测任务,指标包括准确性、校准、鲁棒性、公平性、 偏差、毒性、效率等。

  2. HEIM HEIM(Holistic Evaluation of Text-to-Image Models)是由斯坦福 大学在 2023 年推出的多模态大模型评测体系。与之前文本生成图像 的评测主要关注文本图像对齐和图像质量不同,HEIM 定义包括文本 图像对齐、图像质量、美学、原创性、推理、知识、偏见、毒性、公 平性、鲁棒性、多语言性和效率在内的 12 个维度。HEIM 确定包含这些维度的 62 个场景,并在这个场景上评测了 26 个最先进的文本到 图像的生成模型。

  3. HRS-Bench HRS-Bench(Holistic Reliable Scalable Bench)是由沙特的 KAUST 在 2023 年推出的全面、可靠、可扩展的多模态大模型评测体系。与 之前文本生成图像仅考察有限维度不同,HRS-Bench 重点评测大模型 的 13 种技能,可分为准确率、鲁棒性、泛化性、公平性和偏见 5 个 类别,覆盖了包括动物、交通、食物、时尚等 50 多个场景。

  4. OpenCompass OpenCompass(司南)是由上海 AI 实验室推出的开源、高效、 全面的评测大模型体系及开放平台,其包括评测工具 CompassKit、数 据集社区 CompassHub 和评测榜单 CompassRank。在已发布的评测榜 单中,对语言大模型主要考察语言、知识、推理、数学、代码和智能 体方面的表现。对多模态大模型主要评测在 MMBench、MME 等数据 集上的指标。OpenCompass 提供了开源大模型基准测试工具,已集成 大量的开源大模型和闭源商业化 API,在产业界影响力较大。

  5. FlagEval FlagEval (天秤)是由北京智源研究院推出的大模型评测体系及 开放平台,其旨在建立科学、公正、开放的评测基准、方法、工具集, 协助研究人员全方位评估基础模型性能,同时探索提升评测的效率和 客观性的新方法。FlagEval 通过构建“能力-任务-指标”三维评测框 架,细粒度刻画基础模型的认知能力边界,包含 6 大评测任务,近 30个评测数据集和超 10 万道评测题目。在 FlagEval 已发布的榜单中, 其主要通过中、英文的主、客观题目对大模型进行评测,具体任务包 括选择问答和文本分类等。

  6. SuperCLUE SuperCLUE 是由 ChineseCLUE 团队提出的一个针对中文大模型 的通用、综合性测评基准。其评测范围包括模型的基础能力、专业能 力和中文特性,基础能力包括语言理解与抽取、闲聊、上下文对话、 生成与创作、知识与百科、代码、逻辑与推理、计算、角色扮演和安 全。目前提供的基准榜单包括 OPEN 多轮开放式问题评测、OPT 三 大能力客观题评测、琅琊榜匿名对战基准、Agent 智能体能力评估、 Safety 多轮对抗安全评估等。除此之外,还针对长文本、角色扮演、 搜索增强、工业领域、视频质量、代码生成、数学推理、汽车等领域 单独发布大模型能力榜单。 三、大模型基准测试体系框架 大模型基准测试体系涵盖大模型的测评指标、方法、数据集等多 项关键要素,是指导大模型基准测试落地实践的规范。大模型基准测 试体系的建设和完善,旨在形成一个全面、客观、规范的大模型基准 测试的方法论,从而保障大模型评测结果的公正性和客观性。当前大 模型的基准测试偏重模型的通用能力,产业界也亟需面向具体场景和 实际落地效果的模型评测能力。

成为VIP会员查看完整内容
59

以“数据”和“智能”为代表的信息技术在数十年间快速融入全社会的生产、分配、流通、消费、社会服务管理等环节,不断带动生产力提升,推动社会进步。近年来,伴随数据增列为生产要素、生成式人工智能技术实现突破,“数据”和“智能”产业均进入剧烈变革期,两者间的发展关系也发生巨大变化,“数据智能”顺势成为产业焦点。为梳理数据智能相关知识体系,总结先进实践经验,研判未来发展趋势,指引企业顺利实现数智化转型,大数据技术标准推进委员会牵头,联合行业专家和头部企业首次共同编制《数据智能白皮书(2024年)》。本白皮书聚焦数据智能这一话题,梳理概念的诞生背景及发展历程,系统性厘清完整技术体系,深入剖析应用现状问题,展现产业生态全景,以期为企业未来的数据智能实践提供参考。

成为VIP会员查看完整内容
57

本教程全面介绍了大型语言模型(LLMs)的基本概念、构建过程和应用实例,涵盖了以下几个方面:

  1. LLMs的基本概念
  • 定义及区别:介绍了LLMs、语言模型(LM)和预训练语言模型(PLM)之间的区别,强调了LLMs的多用途和涌现能力。
  • 语言模型的目标:包括困惑度(perplexity)等指标的定义和计算方法。
  1. LLMs的构建过程
  • 数据准备:强调了数据源的选择、数据清洗和分词的重要性。
  • 预训练:讨论了大规模数据预训练的过程和成本。
  • 微调与对齐:介绍了指令微调、强化学习人类反馈(RLHF)等技术,讨论了模型对齐与人类价值的关系。
  1. 流行的LLM实现概述
  • 对多个著名的LLM模型(如GPT-4、Llama等)进行比较,分析它们的架构、参数规模和训练成本。
  • 介绍了开源模型和封闭模型在研究和部署中的选择和考虑因素。
  1. 高级话题的快速采样
  • 高效推理与服务:探讨了内存管理和推理效率的改进方法。
  • 外部知识的使用:包括检索增强生成(RAG)和工具使用等技术。
  • 多LLM代理:讨论了多个LLM协作解决复杂任务的未来方向。
  • 负责任的AI:涵盖了可靠性、公平性、问责性、隐私和安全等广泛话题。 本教程通过详细的理论讲解和实践案例,帮助参与者理解LLMs的基本原理和前沿进展,并为未来的研究和应用提供了明确的指导和资源支持。

成为VIP会员查看完整内容
58

在过去几年中,大型语言模型(LLM)的能力迅速提高,OpenAI 的 GPT-4 就是最突出的例子。本案例研究探讨了 GPT-4 用于协助研究任务的两种方式:数据分析和撰写执行摘要。我们之所以选择这些任务,是因为它们在国防分析研究所(IDA)的项目中很常见,而且经常被作为适合大型语言模型的任务提出。首先,使用 GPT-4 完成了数据清理、探索、建模和可视化等任务。将其质量和速度与人类完成相同任务进行了比较。发现单独使用人工智能时,分析质量不够高,但有了人类伙伴后,分析质量大大提高。使用 GPT-4 节省了约 60% 的数据分析任务时间,并为该领域节省大量成本提供了机会。然后,使用 GPT-4 为三份公开的 IDA 出版物生成了执行摘要(EXSUM),并将其与人工生成的执行摘要进行了比较。发现大型语言模型生成的内容提要往往无法为技术性较强的论文提供适当的背景,但考虑到其生成速度和详尽程度,大型语言模型仍然提供了节省时间和成本的机会。

成为VIP会员查看完整内容
53

近日,泰伯智库发布时空数据治理白皮书(2024)。****

来源 |泰伯智库编辑 | 探险家

数据是建设数字中国的基础资源和关键要素。2022年12月,《中共中央国务院关于构建数据基础制度更好发挥数据要素作用的意见》明确,要充分实现数据要素价值,以数字化驱动生产生活方式和治理方式变革,为推进数字中国建设注入强大动力。时空数据治理作为数据要素的主要部分,超过80%的数据均直接或间接地具备时空属性,如何科学地设立规划与流程、有效地管理、发挥时空数据的价值将成为未来的重点研究方向。 通过近期梳理,泰伯研究院认为,提升时空大数据规模和质量,激活数据价值,建立数据制度、守护数据安全是测绘地理信息行业发展的新要求和下一站。因此,时空数据治理有望成为未来五到十年最重要的研究课题之一。 研究中发现,时空数据治理发展的主要落地并不在于攻克技术难题,而在于一些成熟技术基于新场景的落地应用。其中,交通时空数据治理或将成为重点关注领域。时空数据治理是数字孪生之基,实景三维中国的开展也为时空数据治理提升了新的高度,其成熟也将为数字孪生的大规模应用提供高质量的数据基底,有助于赋能更多场景高质量发展和不断创新。 当前国内时空数据治理领域还存在着一些突出问题,特别是“重管理、轻治理”,缺乏统一的时空数据治理认知,大多数企业和用户战略不够清晰,缺少完整的数据治理体系和治理框架。 本白皮书是泰伯智库白皮书系列的第六本,也是时空数据治理领域的第一本。本次编写旨在提出时空数据治理的定义、发展内涵、发展意义,并对其发展现状进行描述,梳理其相关政策、市场参与者、技术体系和应用案例,研判其发展趋势,发现问题并提出建议,从而给时空数据治理产业侧和用户端提供参考。本次《白皮书》的编写,主要以泰伯智库的产业数据库为基础,同时结合对数据治理的主要服务商、行业专家的调研输出研究观点和行业分析。

成为VIP会员查看完整内容
47

针对当前军事领域知识图谱描述装备体系存在的数据规范程度不高、实体不统一和实体关系不一致等问题, 提出一种基于元模型的军事领域本体模型构建方法。该方法采用体系架构元模型技术框架下的概念数据模型和逻辑数据模型定义装备体系本体, 从而生成装备体系知识图谱, 避免不同兵种、不同业务领域装备体系本体不一致的影响。选取协同打击任务场景构建无人机集群装备体系应用本体, 导入Neo4j软件生成知识图谱。结果表明, 所提方法能够满足装备体系知识图谱构建需求。 体系对抗是现代战争的基本对抗形式, 体系建设关系到战争的胜败。装备体系作为作战体系的重要物质基础和能力支撑, 其建设发展质量直接影响作战体系效能发挥。近年来, 在高新技术的推动下, 国外先后提出了马赛克战、多域战和分布式作战等一系列作战概念, 装备体系的复杂程度逐渐增加, 体系要素类型日趋庞大, 系统交互更加密集[1]。如何构建和运用要素复杂、数据密集和信息耦合的装备体系, 支撑作战需求实现, 已经成为装备建设发展的重要课题。 知识图谱借助图形学、应用数学实现信息可视化, 以可视化的图形直观展示知识内容, 在医学、金融和智能搜索等领域取得较快发展。在军事领域, 运用知识图谱可以清晰显示装备体系的系统组成、关系和属性, 为装备体系的发展论证、运用和分析提供重要支撑。知识本体作为知识描述框架, 是知识图谱的基础, 国内外很多学者对本体构建开展了相关研究。文献[2]基于生物医学本体构建了新型冠状病毒知识图谱, 用以存储和管理病毒知识。文献[3]提出一种利用生物概念互联本体构建生命科学不同子领域知识图谱的方法, 破解概念间关系跨越不同子领域的难题。文献[4]介绍了一种动态本体构建技术, 用以描述语义物联网。文献[5]提出一种适合武器装备体系的本体构建方法, 构建武器装备体系知识图谱。文献[6]在对当前军事领域本体构建方法归纳总结的基础上, 提出了一套军事领域本体构建流程。文献[7]提出了一种基于开源和多维数据的军事领域知识图谱构建方法, 并描述了构建图谱的过程。 当前, 装备领域知识图谱的构建主要采取基于“采集领域军事语料+概念分析”的本体建模的方式, 构建的本体存在重用性不强, 知识图谱数据规范程度不高、概念不统一和关联关系不一致等问题, 且构建的图谱只能反映装备体系组成要素的静态关系, 无法有效展示装备体系基于任务的交互。针对以上问题, 本文提出一种基于元模型的装备领域本体构建方法, 采用体系架构元模型的概念数据模型和逻辑数据模型, 定义装备体系概念层次、属性及其关系, 构建装备体系领域本体模型; 结合装备体系要素构成和应用场景, 细化领域本体模型生成应用本体, 最终基于应用本体构建知识图谱。

成为VIP会员查看完整内容
42

大语言模型(LLMs)与知识表示学习(KRL)的整合,标志着人工智能领域的重要进展,增强了捕捉和利用复杂知识结构的能力。这种协同作用利用了LLMs的高级语言和语境理解能力,以提升KRL的准确性、适应性和效能,从而扩展其应用和潜力。尽管有越来越多的研究集中在将LLMs嵌入到知识表示领域,但关于这些增强模型基本组件和过程的彻底审查明显缺乏。我们的综述通过基于三种不同的Transformer架构对这些模型进行分类,并分析来自各种KRL下游任务的实验数据,以评估每种方法的优势和劣势。最后,我们确定并探讨了这一新兴但尚未深入探讨的领域的潜在未来研究方向,提出了持续进展的路径。

介绍

大语言模型(LLMs)(例如,BERT [18],LLaMA [59]),代表了一个不断增长模型大小的方向,这些模型在更大的语料库上进行预训练,已经展示出在解决自然语言处理(NLP)任务中的强大能力,包括问答 [99],文本生成 [100] 和文档理解 [101]。关于模型大小,没有明确和静态的阈值。早期的LLMs(例如BERT,RoBERTa)采用了编码器架构,并展示了在文本表示学习和自然语言理解方面的能力。近年来,更多的关注点转向了更大的编码器-解码器 [102] 或仅解码器 [103] 架构。随着模型大小的增加,这些LLMs还展示了推理能力甚至更高级的新兴能力 [104],展示出对人工通用智能(AGI)的强大潜力。

这个拐点,随着LLMs的到来,标志着从显式知识表示向重新关注显式知识和参数化知识混合表示的范式转变。作为显式知识表示的一种流行方法,知识图谱(KGs)现在被广泛研究,用于与基于Transformer的LLMs结合,包括预训练的掩蔽语言模型(PLMs)如BERT和RoBERTa,以及更近期的生成式LLMs如GPT系列和LLaMA。一些工作利用LLMs来增强知识图谱表示学习。在这篇综述中,考虑到三个方向,即基于编码器的方法、基于编码器-解码器的方法和基于解码器的方法。我们对从显式知识表示向重新关注显式知识和参数化知识混合表示的转变有了更深入的理解。

Cao等人 [22] 和Biswas等人 [40] 讨论了知识图谱表示学习的最新进展,但他们对与大型模型整合相关的方面处理不足。Pan等人 [42] 和Pan等人 [43] 探讨了知识图谱与大型模型的结合,特别是LLM4KG和KG4LLM;然而,他们在表示学习方面的覆盖有限。因此,目前还没有专门概述知识图谱表示学习领域最新发展的综述文章。

贡献 本综述的显著贡献总结如下:

  • 知识表示学习的分类。我们系统总结了大语言模型可以采用的知识表示学习方法,包括基于编码器、基于编码器-解码器和基于解码器的方法。
  • 技术的系统回顾。我们提供了关于大语言模型在知识图谱表示学习技术中的最全面概述。针对不同方法,我们总结了代表性模型,提供了详细的说明,并进行了必要的比较。
  • 未来方向。我们深入探讨了语言模型在图谱上的基础原理,并提出了六个未来探索的前景方向。

组织结构 本综述的结构如下:

  • 第2节介绍基础,包括知识图谱、大语言模型和基于文本的表示学习等相关概念。
  • 第3节综述当前研究中采用的核心方法,将其分为三种Transformer类型。每个部分进一步探讨了各种子方法。
  • 在第4节,我们从每个下游任务的性能评估结果讨论了每种方法的优势。
  • 第5节概述了与讨论的类别相一致的潜在未来研究方向,并提出了有望实现显著进展的领域。
  • 第6节的结论综合了综述中得出的见解,并突出了对未来研究的影响。
成为VIP会员查看完整内容
47

**

**


人工智能(AI)技术的快速进步

人工智能(AI)技术的快速进步为研究人员和从业者带来了复杂的局面。理解和驾驭AI应用的复杂性,尤其是在ChatGPT及其与其他AI工具的互动背景下,可能是一个挑战。研究人员和学者需要指导以跟上这些技术的不断发展趋势和影响,这导致了知识和实施策略上的差距。此外,将AI整合到各个领域的伦理和社会影响仍然是一个重要的关注点,需要综合的方法来解决这些问题。《ChatGPT的应用、挑战与未来》一书通过提供对AI当前研究趋势的详细分析,重点关注ChatGPT及其与其他AI工具的互动,提供了全面的解决方案。该书探讨了如何有效利用ChatGPT和其他AI工具解决复杂问题,通过探索AI应用的协作潜力和新兴范式。通过识别研究空白并提出未来方向,本书为研究人员和从业者提供了在不断变化的AI领域中导航所需的知识和工具。

关于作者

Priyanka SharmaPriyanka Sharma于1991年出生于印度拉贾斯坦邦斋浦尔。她于2012年在拉贾斯坦技术大学(Rajasthan Technical University)获得信息技术专业的学士学位,并于2016年在同一大学获得计算机科学专业的硕士学位。她目前在印度拉贾斯坦邦斋浦尔的Swami Keshvanand Institute of Technology, Management & Gramothan计算机科学与工程系担任助理教授,指导了多位硕士研究生。她是IEEE、ACM及多个专业协会的会员,已在国内外期刊和会议上发表了超过15篇研究论文和书籍章节。她还参与了由Infosys、TCS、Oracle和IBM主办的论坛。她的研究兴趣包括机器学习和深度学习应用的进展,并因在Infosys校园链接项目中的出色表现而获得认可。 Dr. Monika JyotiyanaDr. Monika Jyotiyana是Manipal University Jaipur计算机应用系的助理教授。她在印度拉贾斯坦邦中央大学(Central University of Rajasthan)获得博士学位。她在2015-17年期间作为初级研究员(JRF)和2017-2020年期间作为高级研究员(SRF)在中央大学工作。她于2012年获得硕士学位,并于2010年在Aryan International College完成本科,学院附属于MDS University Ajmer。她通过了多项国家级考试,是计算机协会(CSI)和印度科学大会协会(ISCA)的成员,并在多个会议和国际期刊中担任活跃审稿人。她的研究兴趣包括医学图像处理、机器学习、深度学习和神经网络,并在各类国际期刊、会议和书籍章节中发表了多篇论文。 Prof. A.V. Senthil KumarProf. A.V. Senthil Kumar拥有5年工业经验和27年教学经验,获得了计算机科学的科学博士学位(D.Sc)。他发表了33本书籍章节、220篇国际和国内期刊论文、60篇国际会议论文,并编辑了12本书(IGI Global, USA)。他是IEEE Access的副主编,并在多个期刊中担任主编及审稿人,同时也是多个国际会议的委员会成员。他是国际工程师协会(IAENG)、印度系统协会(SSI)、印度科学大会协会、互联网协会(ISOC)、国际计算机科学与信息技术协会(IACSIT)、印度计算科学研究协会(IARCS)的终身会员,并参与多个国际会议的委员会工作。

成为VIP会员查看完整内容
41

人工智能(AI)正开始彻底改变人类生活的方方面面。从协助医疗保健到为商用无人机送货导航,科学和工程学在提供 "智能机器 "方面取得了前所未有的进展,为人类带来了巨大的利益。人工智能的影响是如此广泛,以至于任何领域如果没有随之而来的技术飞跃,就一定会错过未来的科学发展。因此,各国都相当重视开发人工智能的军事用途,以保持战区优势。基于人工智能的技术可用于军事领域,以执行复杂而严苛的任务,特别是在充满敌意和不可预测的环境中;海洋战区完全符合这一框架。海洋环境通常没有地图,难以导航,使用基于人工智能的系统对船只进行跟踪、计算、探测、绘制地图并执行最佳行动,可以增强现有的航海能力。在需要对海洋环境进行持续情报、监视和侦察的作战地点,人工智能支持的系统可以消除海洋物理学的敌意,即静水压力、海洋湍流、热梯度和海洋盐度等。所有这些因素使无人智能系统成为海军力量结构中不可或缺的资产。此外,相对 "杂乱无章 "的海洋环境可能是第一个部署完全自主武器的战场。

然而,就在这些技术不断发展的同时,有关使用具有自主能力的致命系统的法律和伦理问题也开始变得日益突出。这些系统在国际法中的地位问题依然存在,特别是《日内瓦公约》第 36 条(第一附加议定书),其中规定各国需要对新武器进行法律审查,以确保其符合国际法。[3] 因此,即使新一代基于人工智能的作战技术即将问世,赋予此类系统瞄准自主权也必须严格遵守国际法的规定。在基于人工智能的海军作战的具体背景下,具有瞄准能力的人工智能支持系统需要能够持续区分军事资产和民用船只。

本文描绘了人工智能在海军系统中的发展、其在海军作战管理中的整合,以及由此对现有作战环境产生的影响。本文试图确定基于人工智能的系统是否是维护海洋公域安全的答案。主导整个讨论的三个问题是:人机协作(也称人机协同)、机器不同程度的自主性以及人工智能可能影响海军行动的各种任务。本文探讨了使用此类系统的原则是如何与此类技术的进步同步发展的,以及以人工智能为中心的作战环境可能带来哪些人力、概念和组织方面的挑战。文章概述了印度在无人海军系统方面的做法,以及印度海军在实施国家人工智能战略时的作战环境。最后一节建议采取措施,确保向人工智能支持的海军行动顺利转型。

定义海战中的"人工智能"

首先,有必要区分基于人工智能的海军作战系统和基于人工智能的海军战车。虽然两者并不相互排斥,但正在开发和采用的基于人工智能的海军作战系统需要全面的人机协作,而基于人工智能的海军车辆则不一定有人类监督。人工智能影响和增强海军行动的两种大致不同的方式如下:

海军作战系统--在海军作战系统中应用人工智能,可通过结合软件流程实现更智能的指挥和控制,从而提高海军的总体可操作性。这些技术还可用于作战管理系统,以更好地确定目标和绘制敌方资产图。将这些系统集成到海军舰艇的现有传感器中,将增强舰上军官的决策过程,"通过智能处理多种信息来源,同时提示系统评估和确认潜在威胁"。各国海军开发这些系统的目的是提高 "作战单元的作战能力","在复杂、快速移动的作战场景中实现快速决策"。

无人驾驶舰艇--人工智能在无人驾驶舰艇中的应用可以从一般的导航支持扩展到完全的自主运行。这些舰艇或车辆(可互换使用)已成为海军行动的重要组成部分,通常与常规舰艇一起部署,发挥非致命性作用。这些舰艇大致可分为无人潜航器(UUV)和无人水面舰艇(USV),其中大多数由人类直接控制,缺乏任务自主性。这些船只可以通过'远程遥控'进行远程操作(简称 ROV),远程遥控允许远程操作员利用卫星链路指挥和监督无人驾驶船只"。

具有一定自主性的无人海军舰艇通常被归类为自主水下航行器(AUV)和自主水面航行器(ASV)。斯德哥尔摩国际和平研究所(SIPRI)关于 "绘制武器系统自主性发展图 "的报告将自主性定义为 "机器在没有人类输入的情况下,利用计算机程序与环境的相互作用执行一项或多项任务的能力"。"这些系统无需人工干预即可执行大多数分析功能,从而减少了对传统上执行这些功能的人类船员的需求。对于由操作员完全控制的船只,人类被视为 "环内";对于具有一定程度自主性但受人类监督的船只,人类被视为 "环上";而对于完全自主执行任务的无系船只,人类被视为 "环外"。这些不同程度的自主性在讨论这些无人驾驶资产编程执行的任务类型时尤为重要。图 1 和表 1 展示了无人舰载机的各种分类。

图1:无人海事系统分类

表 1: 图 1 所示无人海上系统的详细分类

海战系统中的人工智能

通过信息管理系统将人工智能应用于海军作战的目的是影响和增强海军指挥官的决策过程。在海军舰艇中使用数字助理来增强导航能力的做法并不是一个新概念,但海军作战系统下一步的开创性之处在于它们能够彻底改变对整艘舰艇甚至整个舰队的指挥和控制。人工智能软件使指挥团队有能力监控实时战斗情况,并适当利用他们所掌握的海军资产。这些系统将硬件和软件(流程)相结合,彻底改变了海军演习。神经网络和深度学习算法的结合能够向指挥团队展示一幅无缝的作战画面,并协助他们做出决策,从而增强他们的人力。如果资产相互连接,这些系统甚至可以提高舰队的可操作性。以指挥、控制、通信、计算机、情报、监视和侦察(C4ISR)为导向的系统可以连接到单个海军舰艇,无论其级别如何。潜艇、护卫舰、航空母舰、战列舰、无人驾驶车辆都可以单独装备此类系统,以增强其特定功能。与该系统相连接的无人驾驶资产具有回传智能视频分析的能力,能够提供超视距(OTH)测绘和目标定位,将舰队的视线延伸到各个方向。

如图 2 所示,英国皇家海军计划在舰艇上安装人工智能系统,以更好地探测威胁和评估作战方案。洛克庄园研究公司(Roke Manor Research)的 "STARTLE "机器态势感知软件将增强舰艇现有的探测系统,并根据从这些传感器接收到的数据做出明智的决定。这些系统可识别行为模式,利用深度学习技术运行基于多智能体的模拟,并使最终用户能够提高其海洋领域感知能力,以快速分派任务、探测和跟踪不合作的船只。

图 2 - 洛克公司的 "STARTLE "威胁监测系统(图片:Roke.co.uk)。

还计划为其核潜艇提供基于人工智能的决策支持系统,以减轻潜艇指挥官的负担。这种支持系统的深度学习算法可以与其他传感器相关联,并帮助指挥官 "估计某些战斗行动的风险和收益,甚至建议采取艇长未考虑的行动。"水下海军指挥官经常从事枯燥乏味的行动,需要耐心、技能和导航专业知识,最重要的是要有能力对局势的突然变化做出反应。这些系统可以减轻他们的疲劳,大大提高他们的作战能力。

在私人运营商中,航空航天制造商劳斯莱斯已表示有意开发完全自主的船舶,摆脱人类船员的束缚。[33] 该制造商 "采用了最新的导航技术,将一系列传感器与人工智能驱动的计算机相结合。"[34] 该公司已与谷歌云公司合作,将使用谷歌的云学习引擎来训练其基于人工智能的物体分类系统。[35] 该软件将主要用于探测、跟踪和识别。

美国海军为其濒海战斗舰(LCS)采用的 "综合水上网络和企业服务"(CANES)系统网络是利用人工智能扩展和加固现有海军作战系统的一个实例[36]。"综合水上网络和企业服务 "的升级版将无缝连接舰艇、潜艇、岸上地点和其他战术节点,增强海军的可操作性,缩短应对网络攻击的行动周期,保护现有作战系统。 [37]现代海军舰艇安装了数量惊人的传感器套件,通过分析从不同节点接收到的大量信息,升级版的 CANES 网络可以将信息合理化,消除异常情况并协助人类指挥团队,同时还能保护系统免受网络入侵。据克里斯-奥斯本(Kris Osborn)称,基于人工智能的升级版 CANES 网络 "正在进行专门配置,以提高自动化程度--在无需人工干预的情况下执行越来越多的分析功能。 "[38]他补充说,"特别是 LCS,它利用了相互连接的水面和多种任务包,这些任务包旨在使用大量舰船系统相互协调--人工智能分析可能会增强这些功能。"[39]美国海军计划在未来将升级版人工智能支持的 CANES 网络扩展到其所有作战资产,包括其核潜艇和旗舰 "福特 "级航空母舰。

所有这些海军作战系统的共同点是能够从环境反馈中不断学习。这些系统中嵌入的深度学习算法使它们能够从各种情况中不断学习,特别是通过评估人类的长期输入。因此,为了加快学习过程并超越人类的能力,这些系统越来越依赖于 "机器学习"。正如一份报告所提到的,"机器学习是一种软件开发方法,通过这种方法,系统可以学习任务并通过经验提高性能"。[42]这一发展表明,未来的船舶可能会在没有人类监督的情况下完全自主运行。这些系统可以提供有关水深、水温和盐度的信息,以提高声纳的精确度,并通过航点导航和防撞技术协助航向规划,增强船只的航行能力。 [43]然而,在更具战争性的角色中,"机器学习的长足进步为武器系统自主化的发展创造了机会"[44]。这种程度的自主化让人不禁要问,世界各国海军是否愿意将如此多的控制权让给此类作战管理系统。

人工智能在无人航行器/飞行器中的应用

虽然人工智能在海军作战系统中的应用尚处于起步阶段,但在无人航行器中的应用已较为成熟。 无人航行器已成为现代海军结构的一个常见特征,随着它们被部署执行更复杂的海军任务,人类对它们的控制程度正在逐步降低。因此,当这些无人舰艇在没有任何卫星上行链路的无系留环境中工作时,它们被赋予了完全的任务自主权。伦理与安全自动机专家肖恩-威尔士(Sean Welsh)认为,在海军安全任务中,这些舰艇主要被用作增强战斗力的手段,以提供无缝的海域感知(MDA)。

技术的集体进步使这些航行器能够执行更复杂的任务,自主性和自身的支持包也得到了提高。Welsh 介绍说,"潜艇发射的 USV 通过系绳与'母'潜艇相连,提供海面视频通信,而潜艇无需进入潜望镜深度。这种 USV 然后发射小型无人机(UAV),使潜艇能够从空中进行侦察。"[46] 雷神公司的 SOTHOC(潜艇超视距有机能力)就是这种系统的一个例子--"它从潜艇废物处理锁上弹出的无人发射平台上发射一次性无人机。 "[47]在水面行动方面,美国海军的 "海上猎人"(Sea Hunter)就是一个例子,说明如何部署反潜航行器进行大面积监视行动,跟踪潜艇并将信息反馈给附近的船只或预先确定的指挥站。 [48] 由美国国防部高级研究计划局(DARPA)研制的 "海上猎手"(Sea-Hunter),又称 "反潜战连续跟踪无人船"(ACTUV),可配备伞降传感器阵列,使其感知能力提高一千多英尺,增强了其全向无线电连接能力。

无人作战的另一项发展正在改变海军任务的性质,这就是所谓的 "蜂群"。蜂群主要是指一组无人机(飞行器),这些无人机(飞行器)本身可以自主行动,但作为一个整体是由遥控操作的。它们是为执行一个总体目标而量身定做的,但每个单元之间又各自独立。软件开发使这些单个的无人机能够在更大的任务范围内自行执行小型任务,同时又能无缝连接。美国海军已经投资了一项研究计划来开发这种能力。该计划名为 "低成本无人机蜂群技术"(LOCUST),将允许操作人员控制蜂群的行为,同时保留单个无人机的自主性。[50] 美国海军研究办公室(ONR)甚至举行了一次机器人蜂群演示,四艘无人机船在一个区域内巡逻,同时自动保持编队,人类仅控制蜂群的大动作。 [51] 中国一家科技公司--云洲智能科技公司(Yunzhou Intelligence Technology,简称 "云洲科技")也在万山群岛进行了类似的演示,56 艘自主 USV 装备了专门开发的 "自主模块"。与蜂群相关的技术发展有能力改变传统上以航空母舰等战略资产为中心的海军行动。蜂群技术将使海军能够分散其较小的战术资产,执行与大型常规舰艇相同的安全任务,只要这些资产协调一致地执行指定任务即可。

适用于海军作战系统的深度学习算法概念同样适用于自主海军舰艇。 这些无人航行器在没有人类监督的情况下,不断从环境中学习,提高执行任务的能力,并增强洞察力。此类无人舰艇的目标自主性可满足未来战争的需要,让 "海上猎人 "号这样的自动潜航器在自主执行任务的情况下进行全方位反潜作战。同样,如果获得致命的自主权,自动潜航器很可能成为未来攻击型潜艇的替代品。自主执行致命任务将使这种无人舰艇能够为港口、大型船舶、商业船队、海上交通线甚至核潜艇提供积极保护。可以说,未来的海战空间将有利于自主系统。那么问题来了,致命自主武器系统(LAWS)何时部署?

致命性自主武器系统(LAWS)

海洋环境被认为是最适合初步部署致命性自主武器系统的区域,因为这里更容易识别资产,而且平民相对较少。[53] 武装自动潜航器将提高海军特遣部队的行动带宽,因为舰艇将有能力在没有人工干预或指挥团队任何投入的情况下发挥作用并攻击敌方目标。在这场自动化革命的未来,我们很可能会看到这样一种系统,它将成为海军指挥和控制的掌舵人,有权在其认为必要时部署致命的无人资产,完全取代人类指挥团队。在保护极易受到潜艇威胁的海区方面,使用致命性自主武器系统具有不可否认的优势。在水下执行任务时,部署致命性自主武器系统将更有意义,因为通过遥控潜水器瞄准目标很成问题,由于无线电波在盐水中的特性,潜艇中现有的通信仅限于 VLF(甚低频)和 ELF(极低频)无线电波[54]。

相反,基于人工智能的致命性自主武器系统是否符合国际人道法,则是过去几年中具有全球意义的一场辩论。就本文而言,采用红十字国际委员会赞成的定义是合适的。红十字会使用"'自主武器'作为一个总括术语,包括任何类型的武器,其'关键功能'具有'自主性',这意味着一种武器可以在没有人类干预的情况下选择(即搜索或探测、识别、跟踪)和攻击(即拦截、对其使用武力、使其失效、破坏或摧毁)目标。 "[55]日内瓦的《联合国特定常规武器公约》(CCW)一直是围绕致命性自主武器系统合法性进行讨论的平台,该公约已就这一主题举行了多轮磋商,但未能就如何规范这些不断发展的武器系统达成共识。很有可能的是,在就监管致命自主武器系统的任何国际公约达成一致之前,就已经有了 "关键功能自主 "的武器系统。国际监管机构只能控制各国想要披露的信息,而各国为开发致命性自主武器系统而实施的任何秘密计划都将继续游离于《特定常规武器公约》的范围之外。为了避免出现这种情况,一个非政府组织联盟发起了 "制止杀手机器人国际运动"。在人权观察组织的领导下,该运动一直要求先发制人地全面禁止致命性自主武器系统的部署和开发。[57] 由于其中许多技术都处于先进阶段,国际社会对致命性自主武器系统的担忧并非假设。斯德哥尔摩国际和平研究所的报告建议,《特定常规武器公约》应探讨 "有意义的人类控制 "自主系统的概念,以规范致命性自主武器系统。

找到一个中间立场是有余地的,即可以对致命性自主武器系统进行编程,使其符合国际法准则。如果这些基于人工智能的飞行器和系统具有杀伤力并可自由攻击目标,那么它们的任务自主权可仅限于预先编入其系统的机动程序。软件开发人员可对其自主瞄准功能进行额外控制。在最基本的步骤中,开发致命的无人潜航器或赋予网络系统致命能力,只需开发一个简单的船只识别系统,对独特的声学特征做出反应即可。根据美国机器人学家和机器人伦理学家罗纳德-阿金(Ronald Arkin)提出的原则,可以对这些系统进行进一步的伦理控制: 这些机制将确保智能行为的设计只在严格界定的道德界限内做出反应。为机器学习的学习算法编码的软件应具有卓越的目标识别能力,并允许创建技术,以适应道德约束集和随着学习而发展的基本行为控制参数。

基于人工智能的海军系统和无人系统的作战前景

美国和中国在开发基于人工智能的海军系统方面走在前列,这将增强两国的海军能力。两国都投入了大量资源来制定在本国海军中实施基于人工智能的系统的行动计划,并在制定此类计划的同时制定了支持这种向无人操纵转变的创新作战程序。美国国防部制定的《第三次抵消战略》相当重视发展人工智能的军事用途,目的是保持战区优势。[65]奥巴马政府时期制定的战略侧重于发展尖端国防技术,以保持美国在战场技术计算上对俄罗斯和中国等对手的优势。

与此同时,军事规划人员也在提出适合新阶段无人作战的创新作战概念。预计,蜂群智能和蜂群战术可作为一种非对称方法来攻击美国的高价值武器平台。 [71]"蜂群 "技术很有吸引力,因为它能让以较低的军事对抗概率进行武力投射。[72]在另一端,美国的分布式杀伤战略旨在摆脱多年来围绕高价值目标的海军战略,将行动能力分布在分散的资产中。 [73] 这两种战略都会使目标难以锁定,并使对手的能力不堪一击。

总的来说,无人平台在执行水下任务,尤其是反介入/区域拒止(A2/AD)战略方面最具潜力。[74] 相反,无人平台也可用于反介入/区域拒止战略,正如 ORF 分析师 Abhijit Singh 所说,"无人平台的决定性特征是能够将作战行动扩展到对手的反介入/区域拒止区域,而不会危及机载系统的完整性或将己方部队置于危险境地。 "[75]无人飞行器可执行各种非致命行动:对浅水沿岸地区进行主动勘测、探测和监测水雷、干扰敌方通信、提供声学情报、进行海洋学和水文学勘测、为水下平台提供水下通信,以及对海军水雷实施主动反制措施[76]。[77]从根本上说,无人平台有望提高生产率,使有人系统能够执行更专业/更重要的任务,提高作战程序的效率。

人工智能在海事领域的后果

未来几年,围绕人工智能的炒作肯定会愈演愈烈,随着越来越多的此类系统得到部署,世界可能很快就会进入人工智能支持的海军在海上战场普遍存在的战争阶段。然而,在海军作战中广泛启动基于人工智能的系统会带来多种后果。其中最主要的是来自传统海军人员的制度性阻力,他们会反对任何试图取代他们的举动。[79] 人工智能支持的海军作战系统将要执行的任务目前是由海军舰艇上或岸上的人员执行的。因此,在海战决策周期中取代人类分析人员将改变海军部队的多个部门。随着海军作战行动的转变,海军将需要这些传统分析人员的帮助,因为作战程序需要过渡和调整,以适应人机协同作战。美国海军人工智能应用研究中心(Navy Center for Applied Research in Artificial Intelligence of the US Navy)就是一个很好的例子,说明一个专门机构是如何负责研究这些课题的。 在这个先于人机协同进行致命交战的时代,海军需要向其行动、部队和系统灌输各种可能性,无论它们看起来多么遥远。最值得注意的是,作战模式和战术需要进行改革,以适应多车辆控制。

目前,人工智能在海军作战中的大部分应用都依赖于人类操作员,因此人机校准极为重要。海军作战系统只在作战场景中执行分析功能,而交战的最终决定权在于人类海军指挥官。因此,在作战中使用人工智能的海军需要确保人类指挥官和人工智能支持的机器都能理解对方的决策回路。美国工程心理学家约翰-霍克利(John Hawkley)在《爱国者战争》一书中写道:"新的自动化系统很少能达到最初的要求。首次使用自动化系统的用户必须预计到一个调试和校准期,在此期间,系统的实际能力和局限性将被确定。"[82] 霍克利进一步提到了自动化系统的 "脆性",他在书中讨论了 "机器无法可靠地处理不寻常或模棱两可的战术情况"[83]。 [83]这也使人类主管人员难以对自动化系统保持警惕,因为他们需要执行 "关键功能",但在其他自主功能中却处于决策圈之外。[84]受过技术训练的指挥官对自动化系统沾沾自喜,而经验丰富的指挥官则对自动化系统心存疑虑,这可能会导致部队内部出现分歧。[85]这些系统中的自动化系统不应被视作表面价值,正如一份报告所提到的,"相信系统的无懈可击(即:它总是正确的)可能会使人对自动化系统产生误解、 86]此外,在一些具有深度学习神经网络的自主系统中,输入-输出过程还不完全透明,这可能会对人机协作造成障碍,因为人类指挥官无法理解系统是如何处理信息并做出决策的。因此,在目前的情况下,"非循环 "自主武器系统极不可能具备致命能力,更何况围绕着它们的伦理问题。

开发和部署此类系统的另一个障碍是它们容易受到反制措施的影响,其中一些反制措施已经问世。许多人工智能支持的飞行器仍处于设计阶段,预计在开发这些飞行器的同时,对手也将投资开发反制措施。声学隐形和声学静音技术已被应用到潜艇中,未来这些技术的改进会让人工智能舰艇的声学识别系统彻底崩溃。[88] 声学隐形技术涉及设计噪声特征和雷达截面减小的舰艇--新一代柴油电力潜艇就是一个很好的例子。此外,由于水深的限制或敌军的全球定位系统干扰,无人驾驶飞行器在全球定位系统失效的环境中运行,令人严重关切此类系统如何不间断地工作。非 GPS 制导系统和抗干扰保护软件需要纳入研发过程。许多国家正在开发可对无人系统采取软杀伤措施的能力,特别是使用黑客攻击和干扰软件。[90] 海军特遣部队的无人潜航器或 USV 被黑客攻击并用来对付它的可能性将困扰着每一位海军指挥官。对无人系统进行黑客防护应是开发人员的首要任务。当这些系统仍在开发阶段时,开发人员和最终用户需要考虑上述所有因素。

印度海军对无人系统的尝试

印度很晚才认识到自主系统在军事领域的潜力,在开发基于人工智能的本土作战系统和海军车辆方面远远落后于美国和中国等国家。不过,印度政府最近在这一领域表现出了一定的紧迫感,并成立了一个人工智能工作组,探索人工智能可以增强常规能力的各种领域。在 2018 年 4 月的钦奈防务博览会上,印度总理纳伦德拉-莫迪(Narendra Modi)表示: "人工智能和机器人等新兴技术或许将成为未来任何国防力量防御和进攻能力的最重要决定因素。印度凭借其在信息技术领域的领先地位,将努力利用这种技术倾斜来发挥自身优势。"[91] 一位印度政府官员在接受一家印度报纸采访时补充了这一观点。他说:"世界正在走向人工智能驱动的战争。印度也在采取必要措施,让我们的武装部队做好准备,因为人工智能有可能对国家安全产生变革性影响。政府已经成立了人工智能工作组,为其准备路线图。"[92] 在过去的一年里,印度政府为基于人工智能的研究拨出了一些专款,但无人海军舰艇和系统的具体研发领域并未得到任何优先考虑。[93] 比较乐观的是,一些印度大学和研究机构已经开发出了可交由海军使用的无人潜水器,最近印度首个以人工智能为重点的研究所也在孟买开业。

迄今为止,印度海军尚未考虑在自主系统时代修改其作战规程。然而,随着智能系统在海上安全领域的普及,新德里的海军战略家们有必要合理安排行动,以对抗敌对的无人系统。正如 ORF 研究员普山-达斯(Pushan Das)所提到的,"要提高有限反潜资产的作战效能和灵活性,就必须采用不断发展的条令和具体的作战概念,使有人和无人资产能够协同作战。 "[96]他补充说,"将有人和无人资产结合起来,将为印度战舰在高威胁环境下提供高度的战术灵活性,降低船员的风险,并使目标瞄准更快、更精确。"[97]从根本上说,印度海军可以部署具有自主能力的海军车辆执行多种任务,从舰队保护行动到反潜战任务,再到沿岸水域侦察。对于印度海军为印度洋地区(IOR)提供安全保障的主要任务来说,自主系统(包括致命和非致命系统)的应用是巨大的。

印度海军在开发自动潜航器并将其纳入舰队方面远远落后,目前需要将重点放在简易反制措施上。印度海军需要独立于国防研究与发展组织(DRDO),在这一领域开展自己的研发工作,并为此招募懂技术的人员。印度国防机构需要在 "与私营和公共部门合作,促进本土智能技术的发展"[99] 方面表现出一定的紧迫性。印度充分利用了信息技术(IT)时代带来的好处,并向世界各国提供了经过 IT 训练的熟练专业人员。印度需要以同样的活力和魄力开发其庞大的人力资源,将他们的技能导向熟练掌握人工智能相关应用。与大多数开发人工智能相关军事技术的国家一样,私营部门的研发工作已自动扩散到国防工业。

结论

本文旨在研究人工智能在海军行动中的适用性,并对自主海军任务的不同层面进行了多方面的研究。关键问题仍然是,在商业商船数量不断增加导致海洋环境日益拥挤的情况下,这些基于人工智能的系统能否为海洋公域提供安全保障并保护中立商业。因此,在未来,自主系统最重要的要素将是其同时区分多艘船只和维护商船声学特征数据库的能力。这需要商业航运公司的合作,以及对深度学习算法的严格测试,以验证这些自主系统的模式识别过程。虽然自主舰艇可以执行各种海军任务,但需要在其系统中预设遵守国际海事法和公约的程序,以避免其闯入划定的专属经济区。最重要的是,长期执行闲逛任务的自动舰艇需要使用可持续能源,以确保其任务不会对海洋环境造成任何损害。正如一份报告所提到的,二者之间的矛盾在于,对这些船只的开发进行监管时,"对双重用途技术的控制不会阻碍有关自主性民用应用的科学研究,从而也不会阻碍经济发展"。

随着人类发展的每一个时代,海军行动都在发生变化,随着以网络为中心的战争新时代的到来,海军规划者将相应地需要考虑到所有的可能性。基于人工智能的系统提供了超越人类可能的机会,为海上安全任务注入了新的热情。然而,这些技术只有在不对称的情况下才能在战场上获得技术优势。海军作战人员、规划人员和战略人员需要认真思考这条自动化之路将把他们带向何方。虽然否定人工智能系统的发展是在冒险,从长远来看可能会付出高昂的代价,但从目前的情况来看,更上一层楼就会出现两支都由人工智能系统指挥的海军对峙的局面。在这种决策-行动周期完全崩溃的超战争场景中,海军任务与海战之间的界限可能会变得模糊不清。

成为VIP会员查看完整内容
44

边缘人工智能(AI)包括一个由互联系统和设备组成的网络,这些系统和设备接收、缓存、处理和分析与数据捕获位置密切相关的数据。近年来,AI效率的提升、物联网(IoT)设备的广泛使用以及边缘计算的兴起,揭示了边缘AI的巨大潜力。边缘AI的目标是优化数据处理的效率和速度,同时确保数据的机密性和完整性。尽管这一研究领域相对较新,从2014年开始到现在,但在过去五年中已经显示出显著和快速的发展。在本文中,我们对边缘AI进行了系统的文献综述,讨论了现有研究、最新进展和未来的研究方向。我们创建了一个用于云和边缘计算分析的协作边缘AI学习系统,包括对支持这一机制的架构的深入研究。边缘AI的分类法有助于边缘AI系统的分类和配置,同时还考察了其在基础设施、云计算、雾计算、服务、使用案例、机器学习和深度学习以及资源管理等诸多领域的潜在影响。本研究强调了边缘AI在网络边缘处理实时数据的重要性。此外,它还突出了边缘AI系统面临的研究挑战,包括资源限制、安全威胁的脆弱性以及可扩展性问题。最后,本研究强调了旨在通过提供创新解决方案来解决边缘AI当前局限性的潜在未来研究方向。

关键词:边缘计算、人工智能、云计算、机器学习、边缘AI

I. 介绍

近年来,人工智能(AI)效率的提升、物联网(IoT)设备的采用以及边缘计算能力的增强,正在共同释放边缘人工智能(Edge AI)的潜力【1】。众多分析师和企业正在讨论和实施边缘计算,其起源可以追溯到20世纪90年代,当时位于客户附近的边缘服务器被用于通过内容分发网络提供网页和视频内容【2】。在这一边缘AI中,边缘计算是一种范式转换,它将数据存储和处理更接近数据源,从而提高响应时间并减少带宽使用。与传统云计算不同的是,边缘计算在网络的边缘处理数据【3】。这种接近性降低了延迟,提高了实时数据处理能力,并支持IoT设备和服务的扩展【4】。边缘计算的主要优势包括服务灵活性提高、低延迟、增强的一致性以及消除单点故障,使其在智能城市、自主车辆和工业自动化应用中高度相关【5】。通过地理分布计算资源,边缘计算确保数据处理发生在数据源附近,满足实时分析和决策的需求。

另一方面,AI包含广泛的技术和方法,使机器能够执行通常需要人类智能的任务,如学习、推理和自我纠正【6】。AI的应用涉及多个领域,包括医疗、金融、交通等,在这些领域,AI用于分析大型数据集、自动化任务和提供预测性见解【7】。将AI整合到不同部门中,已经通过提高效率、改进决策和创造创新机会,彻底改变了流程。随着机器学习(ML)或深度学习(DL)的改进,AI方法在执行需要人类认知功能的复杂任务方面变得越来越有能力【8】。特别是涉及神经网络的AI算法在图像和语音识别、自动驾驶和预测性维护等领域取得了显著成功。

**A. 用于AI的边缘计算

边缘计算与AI的融合涉及在用户设备上处理AI算法,提供如降低延迟、能源效率和实时应用等益处。这种集成允许在源头进行实时数据处理和决策,显著减少延迟和带宽使用【9】。边缘计算与AI的结合使得更智能和更灵敏的应用成为可能,如自主车辆、工业物联网、智能家居系统等。通过利用边缘AI,组织可以实现更高的效率、增强的隐私和更快的洞察力,推动各个领域的创新【10】。边缘AI是指在网络边缘集成AI功能,使边缘设备具备分布式智能。其目的是改善网络连接性,支持具有定义质量目标的AI流水线部署,并允许数据驱动应用的适应【11】。在边缘嵌入AI功能解决了基于云处理IoT的局限性,如隐私问题和网络连接问题。边缘AI的部署增强了对延迟敏感的任务,并减少了网络拥塞,提高了无线网络的效率和安全性。

此外,基于AI的技术在解决边缘环境中的服务质量(QoS)感知调度和资源分配挑战方面起着至关重要的作用,确保服务质量和用户体验。边缘AI支持作为服务的AI(AIaaS)部署,具有可配置的模型复杂性和数据质量,提高了性能并降低了成本【12】【13】。这种创新方法通过在边缘利用AI功能,支持智能安全应用并增强分布式系统的安全措施。边缘智能,一种有前途的技术,通过将计算从云服务器转移到IoT边缘设备,赋能实时应用,创造了拥有广阔可能性的智能企业【14】。在边缘而非集中位置利用AI,释放了与IoT设备和边缘计算结合的AI潜力,在资源受限的边缘设备上部署AI算法,用于各种应用如自主车辆、医疗保健和监控。 边缘AI的重要性在于它能够在不将大量数据发送到多个集中位置的情况下提供即时的洞察和行动【15】。这种能力在延迟和带宽是重大限制的情况下尤为关键,如在自主驾驶中,必须实时做出决策,或在医疗保健中,必须快速处理患者数据以提供及时的干预【16】。边缘AI的崛起也得益于硬件的进步,如更强大和高效能的处理器,使得在智能手机和IoT传感器等设备上运行复杂的AI模型成为可能【17】。

**B. 动机和贡献

将边缘计算与AI结合的动机是多方面的,主要驱动因素是实时处理数据的迫切需求以及解决集中云计算系统固有局限性【18】。随着连接设备数量的指数级增长和数据量的激增,传统的云中心模型越来越多地面临如延迟、带宽限制和显著的数据隐私问题。边缘AI作为解决这些挑战的关键方案,倡导本地化数据处理【19】。这种转变不仅减少了对远程云基础设施的依赖,从而大幅降低延迟,还显著增强了应用对实时数据输入的响应能力。这种范式转变对于推动需要瞬时数据分析和决策的下一代技术发展尤为重要,涵盖了如自主车辆、智能城市基础设施和尖端医疗系统等领域。

此外,边缘AI使得即使在稀疏连接的情况下,应用也能高效运行,通过在源头直接处理数据。这种能力在远程或高度移动的环境中至关重要,在这些环境中,持续和可靠的互联网访问并不总是有保障的【20】。通过现场处理数据,边缘AI显著增强了数据隐私和安全措施,减少了将敏感信息传输到远程服务器的需求。在如医疗和金融等领域,数据的机密性和完整性至关重要,这一特性尤为关键。边缘AI还通过减少需要通过网络传输的数据量,支持带宽效率,是数据密集型应用的经济选择【21】。这种效率不仅降低了运营成本,还缓解了网络拥堵,促进了更顺畅和可靠的数据流。可扩展性是边缘AI提供的另一个重要优势【6】。随着设备网络的扩展,边缘计算允许无缝扩展,而不会因集中处理能力的瓶颈而受限,使企业和技术能够在不受基础设施限制的情况下增长。

总的来说,边缘计算与AI的结合不仅是技术进步,也是满足现代应用动态需求的战略必要。通过提倡降低延迟、增强隐私和安全、提高带宽效率和可扩展性,边缘AI将彻底改变数据驱动决策的方式,迎来一个高效且以隐私为中心的智能时代。

本文的主要贡献是:

  • 我们提供了对边缘AI的全面介绍,涵盖其历史、挑战和前景。
  • 我们进行了系统的文献综述,基于多个应用领域对边缘AI研究进行了详尽的审查,突出当前趋势和未来可能的方向。
  • 我们提出了一个边缘AI的分类法,有助于边缘AI系统的分类和排列,并通过各种应用探索其跨学科的潜在影响。
  • 我们强调了边缘AI在网络边缘实时处理数据的重要性,同时指出了边缘AI系统面临的挑战,如资源限制、安全风险和扩展问题。
  • 我们提出了旨在通过提供创新解决方案和未来研究机会来解决边缘AI当前局限性的有前途的未来方向。

****

**C. 文章组织结构

第二部分讨论了一个相关的调查,重点关注与边缘AI集成的不同应用中的算法、优化技术、安全和隐私问题。第三部分介绍了边缘AI的背景和现状。第四部分详细描述了采用的审查方法。第五部分概述了涵盖基础设施、云计算、雾计算、服务、用例、机器学习和深度学习以及资源管理的分类法。第六部分基于分类法比较了现有的边缘AI实现。第七部分呈现了分析和获得的结果,并在第八部分讨论了未来的研究方向。最后,第九部分总结了这项调查。

边缘AI:背景与现状

本节为读者解释了与边缘AI背景和现状相关的一些概念。子节III-A解释了边缘计算及其历史起源。子节III-B提供了有关AI与边缘技术整合的信息。接下来通过子节III-C和子节III-D分别解释边缘AI应用和挑战。

**A. 边缘计算的历史起源

边缘计算的概念是一种范式,将计算资源更接近数据源,而不是通过远程服务器提供服务的云计算【51】。这样可以在如今需要处理大量数据的世界中减少不必要的带宽占用和延迟问题【52】。为了理解边缘计算的出现,更有用的是考察之前的范式,如云计算和雾计算。图1显示了云计算、雾计算和边缘计算各自的优点及其层次安排。现在简要介绍这些概念:

  • 云计算:云计算是一种可以追溯到1970年代的范式,指的是用户通过互联网在服务器上使用公共计算资源【53】。今天,主要由大公司如微软Azure、谷歌云平台和IBM云提供给用户的各种服务模式。云计算的优点如下【54】:

  • 高处理能力和集中存储,使用户可以轻松访问资源,只要有互联网。这减少了用户的数据丢失风险,并为用户提供了从任何有互联网的地方工作的自由。

  • 可扩展性,如果计算资源需求增加(需求波动),云计算通过扩展资源提供更多的处理能力和存储服务。这样,保证了SLA和QoS等性能指标。

  • 按使用付费,通过云计算提供的无服务器(功能即服务(FaaS)+ 后端即服务(BaaS))服务模式,用户只为使用的计算资源付费。这样提供了一种经济的模式,吸引更多用户。

  • 雾计算:雾计算的概念由思科在2012年提出【55】。这种范式建议将计算资源更接近网络的终端(如路由器和网关),以减少云计算中的延迟和带宽问题。当查看图1时,雾计算作为云和边缘之间的一层。雾计算的优点如下【56】:

  • 由于将计算资源更接近网络边缘,雾计算的延迟低于云计算。

  • 作为云和终端设备之间的一层,通过处理部分需要发送到云的大量数据,减少不必要的带宽使用。

  • 边缘计算:物联网和传感器技术的发展使得需要处理的数据量增加到巨大的水平。在云计算资源上处理所有这些数据可能导致不必要的带宽占用和延迟问题。因此,边缘计算的概念作为一种通过在数据源附近处理数据来优化延迟和带宽使用的范式应运而生【57】。此外,边缘计算是解决雾计算所带来的复杂性、安全性和管理挑战(额外一层)的良好解决方案【58】。边缘计算的优点如下【59】:

  • 通过将数据处理移到网络边缘,减少延迟和带宽使用,

  • 相比雾计算,提供了如更少的复杂性和更好的安全性等优点。

**B. AI与边缘技术的整合

将AI与边缘计算的概念结合起来是最近的热门话题之一。图2显示了一个解释边缘AI概念的主要图示。边缘AI是在靠近数据源的边缘节点(物联网和移动设备)上分布处理AI算法数据,而不是在集中式云平台上处理数据【60】。这两种技术提供的优点如下【6】:

  • 在如低延迟、时间敏感的自主车辆和监测患者的电子健康等应用中,延迟量至关重要。通过边缘和AI整合,可以通过实时处理数据来克服这个问题。
  • 在数据安全方面,由于数据将在靠近源的点进行处理,敏感数据如生物特征数据将在网络内的本地设备上处理。这样可以消除如数据泄漏等安全隐患。
  • 可扩展资源,边缘范式由由同质或异质设备组成的节点组成。这样,可以根据处理能力需求进行任务调度。

**C. 边缘AI应用

由边缘和AI概念结合创建的边缘AI应用比基于云的AI应用提供了更低的延迟和更高的安全性。图3展示了其中一些应用。让我们解释这些应用:

  • 医疗保健:边缘AI应用基于在网络边缘的分布式AI模型中处理从可穿戴设备收集的数据。此外,使用便携式医学成像技术进行的早期诊断研究可以作为例子【54】。
  • 智能停车:随着交通工具的增加,停车已成为一个大问题,特别是在大城市。可以利用传感器和物联网的帮助解决这些问题的边缘AI解决方案【61】。
  • 智能家居:用于现代家庭的解决方案如家庭照明系统和智能冰箱可以作为这些应用的例子。通过防止城市中不必要的电力消耗,可以优化能源消耗【56】。
  • 计算机视觉:边缘AI可以使用如生物特征认证的方法识别人员【51】。此外,边缘AI在需要实时决策的工业应用中提供了巨大优势【58】。
  • 网络安全:可以使用基于边缘AI的安全应用检测未经授权的访问、可疑物品和持武人员。此外,可以通过检测网络上的可疑流量来进行异常检测,以防止网络攻击【62】。
  • 交通运输:可以将基于边缘AI的解决方案用于现代复杂的交通信号灯操作【63】。

**D. 边缘AI实施挑战

结合边缘和AI而产生的边缘AI带来了其提供的优点,但也带来了仍需解决的挑战。这些挑战显示在图4中。让我们解释这些挑战:

  • 能效:边缘设备通常由具有低处理和存储能力的同质和异质设备组成。需要自然语言处理(NLP)和密集图像处理的应用将导致边缘设备上过度的资源消耗【64】。因此,需要如专用AI芯片或任务工程等新解决方案。
  • 维护和更新:由于边缘设备由分布在不同位置的设备组成,这意味着黑客的更多攻击目标【65】。此外,边缘节点中的所有设备并非都是同质结构,这意味着每个节点需要单独的系统维护和更新【66】。可以采取如自动更新等措施来解决这些问题。
  • 可扩展性:由于边缘设备通常由异质设备组成,将单个应用分配到不同设备仍然是一个挑战(任务调度等)【67】。此外,难以在所有设备之间同步数据。可以使用有效的微服务架构和负载均衡算法来防止节点过载,解决这个问题。
成为VIP会员查看完整内容
41
登陆后查看更多精品内容
VIP会员
本周荟萃主题
区块链
区块链(Blockchain)是由节点参与的分布式数据库系统,它的特点是不可更改,不可伪造,也可以将其理解为账簿系统(ledger)。它是比特币的一个重要概念,完整比特币区块链的副本,记录了其代币(token)的每一笔交易。通过这些信息,我们可以找到每一个地址,在历史上任何一点所拥有的价值。
深度学习
机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。
机器学习
“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。”

——中文维基百科
强化学习
强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。
推荐系统
推荐系统,是指根据用户的习惯、偏好或兴趣,从不断到来的大规模信息中识别满足用户兴趣的信息的过程。推荐推荐任务中的信息往往称为物品(Item)。根据具体应用背景的不同,这些物品可以是新闻、电影、音乐、广告、商品等各种对象。推荐系统利用电子商务网站向客户提供商品信息和建议,帮助用户决定应该购买什么产品,模拟销售人员帮助客户完成购买过程。个性化推荐是根据用户的兴趣特点和购买行为,向用户推荐用户感兴趣的信息和商品。随着电子商务规模的不断扩大,商品个数和种类快速增长,顾客需要花费大量的时间才能找到自己想买的商品。这种浏览大量无关的信息和产品过程无疑会使淹没在信息过载问题中的消费者不断流失。为了解决这些问题,个性化推荐系统应运而生。个性化推荐系统是建立在海量数据挖掘基础上的一种高级商务智能平台,以帮助电子商务网站为其顾客购物提供完全个性化的决策支持和信息服务。
卷积神经网络
在深度学习中,卷积神经网络(CNN或ConvNet)是一类深度神经网络,最常用于分析视觉图像。基于它们的共享权重架构和平移不变性特征,它们也被称为位移不变或空间不变的人工神经网络(SIANN)。它们在图像和视频识别,推荐系统,图像分类,医学图像分析,自然语言处理,和财务时间序列中都有应用。
计算机网络
计算机网络( Computer Networks )指将地理位置不同的多台计算机及其外部设备,通过通信线路连接起来,在网络操作系统及网络通信协议的管理和协调下,实现资源共享和信息传递的计算机系统。
命名实体识别
命名实体识别(NER)(也称为实体标识,实体组块和实体提取)是信息抽取的子任务,旨在将非结构化文本中提到的命名实体定位和分类为预定义类别,例如人员姓名、地名、机构名、专有名词等。
机器翻译
机器翻译,又称为自动翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。它是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。
计算机视觉
计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。
微信扫码咨询专知VIP会员