人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。

近年来,渊亭科技积极参与行业内大模型的各项能力评估建设,取得了突出成果。作为国内最早从事军事大模型建设的企业之一,渊亭科技凭借在军事智能化领域的深厚积累,重磅推出《军事大模型评估体系白皮书》。

**

**

**

**

白皮书全面地梳理了军事大模型能力评估的行业特殊性和关注要素,并按照评估框架、评估标准、评估手段、评估数据、评估工具、评估平台等6大方向,系统性阐述了军事大模型评估过程中的最佳实践,预期能为行业内开展军事大模型的能力评估提供体系化的参考。

其中,评估框架以架构能力、基础能力、平台能力、应用能力、安全能力等5大能力为基石,深入探讨了大模型评估的具体方法。

**架构能力:**围绕大模型应用系统,在准确性、健壮性、兼容性;可解释、可评估、可伸缩;高扩展、高可用、高运维角度进行全面阐述。

**基础能力:**通用基础能力集成行业主流的通用评估方法,军事基础能力提供针对军事特性的领域评估手段。通过贯通评测任务构建-评测执行-评测结果分析-评测报告生成,定义高度自动的基础能力评估工具集。

**平台能力:**针对大模型开发、训练和部署基础平台,对数据生成、开发训练、应用编排、会话管理等关键能力进行全面性和效果评估。

**应用能力:**提炼强敌研究、指挥作战、装备研制、训练管理、联勤保障等方向的典型应用场景,定义针对场景的标准评估手段,结合业务特性快速实施评估。

**安全能力:**设计面向对抗攻击、内容伪造、数据泄露等方向的评估手段,综合评估大模型的安全性和可靠性。

成为VIP会员查看完整内容
123

在过去的十年中,创新型人工神经网络模型取得了非凡的发展。这些模型大多只能处理一种模式,而模式可以被认为是一种通信渠道或一种数据类型,如文本或图像。然而,在过去几年中,基于新型变压器架构的机器学习模型在需要联合处理两种或多种模态的任务中取得了令人瞩目的成果。多模态能力使这些模型更适合处理多模态世界中出现的各种问题。

迄今为止,最著名的多模态模型是那些结合文本和图像的模型,例如根据文本提示生成图像或回答有关图像的问题。同样,结合文本和视频的模型也在不断进步。还有一些模型将文本和声音结合起来,用于生成音乐,或用于文本到语音和语音到文本的转换。此外,还有一些模型能够结合两种以上的模式,为数据融合和机器人等领域复杂问题的新解决方案奠定了基础。例如,虽然工业机器人在受控环境中运行良好,但在非受控环境中的多功能机器人需要能够根据来自各种传感器的输入执行敏捷的任务和运动规划。机器人多模态模型的早期工作就体现了这种能力。

本报告概述了多模态神经网络模型领域的最新发展。报告精选了近年来开发的多模态模型。重点是处理媒体数据的模型,其中媒体数据应理解为主要用于人类交流的数据,如文本、图像、声音和视频。

虽然目前使用的多模态模型有其局限性,但它们自动进行多模态推理的部分能力令人印象深刻,以至于我们不得不问自己,多模态机器学习模型在未来几年会以何种方式影响我们的生活。

成为VIP会员查看完整内容
67

目录   第一部分:紧跟全球产业浪潮,国内市场快速发展   第二部分:国产模型百舸争流,技术创新百花齐放   第三部分:风险提示   1紧跟全球产业浪潮,国内市场快速发展   1国内大模型发展回顾     2022年11月,ChatGPT的问世引发了生成式人工智能大模型在全球的发展浪潮;2023年伊始,国内各大高科技厂商、高校及创业团队相继推出自研大模型;2023年下半年以来,国内大模型持续更新迭代,逐步形成了“百模大战”的火热场面。   3国内大模型市场规模   中国大模型市场呈现快速发展态势,根据亿欧智库发布的《2024年中国“百模大战”竞争格局分析报告》,2023年中国语言大模型市场规模达132.3亿元,未来将持续高速增长,预计2027年市场规模将突破600亿元,2023-2027年的复合年均增长率达50.6%。   4国内大模型产品最新访问量概况   根据AI产品榜公众号的数据,2024年3-4月,百度旗下文心一言和百度文库AI功能访问量居前;Kimi(Moonshot)增长势头迅猛,连续两个月访问量快速增长,排名第二;秘塔AI搜索、360AI搜索等搜索类产品也表现出色。整体来看,访问量数据反映了中国AI大模型市场的活跃度和用户对这些技术的高度兴趣。   2国产模型百舸争流,技术创新百花齐放   1百度文心大模型   文心大模型发展历程:2023年3月,百度发布了文心一言基础技术架构,推出文心大模型3.0版本;5月,百度文心大模型3.5发布,在基础模型升级、技术创新知识点增强、逻辑推理增强以及插件机制等方面取得效果和效率提升。10月17日,百度文心大模型4.0发布,通过万卡算力、飞桨平台、多维数据、多阶段对齐及可再生训练实现了进一步迭代。李彦宏称,这是迄今为止最强大的文心大模型,综合能力“与GPT-4相比毫不逊色”。   1百度文心大模型   文心大模型进展:在2024年4月的百度CreateAI开发者大会上,推出了三款开箱即用的AI开发者神器:智能体开发工具AgentBuilder、AI原生应用开发工具AppBuilder、以及更专业,支持各种尺寸模型定制的开发工具ModelBuilder。李彦宏在发布会上表示,文心大模型已成为中国最领先、应用最广泛的AI基础模型。与一年前相比,文心大模型的算法训练效率提升了5.1倍,周均训练有效时间达到了98.8%,推理成本更是降至原来的1%。

成为VIP会员查看完整内容
61

以 ChatGPT 为代表的大型语言模型(LLM)的出现彻底改变了数字化转型,并将人工智能(AI)定位为其核心。LLMs 在理解和生成人类语言方面的卓越能力已在内容创建和客户服务等各行各业得到广泛应用。然而,它们在军事领域的潜力仍未得到充分挖掘。

本分析报告探讨了 LLM 在现代战争中的变革潜力,并评估了其在军事环境中的适用性。它深入探讨了 LLM 的技术方面,强调了 LLM 利用深度学习原理自主生成上下文相关文本的能力。此外,它还讨论了潜在的军事应用,如加强决策过程和改进情报、监视、目标获取和侦察(ISTAR)行动。

2022 年 10 月,OpenAI 发布了新颖的人工智能(AI)驱动聊天机器人--著名的 ChatGPT(Chat Generative Pre-trained Transformer)。从那一刻起,世界进入了一个新时代,人工智能成为数字化转型的核心。转眼间,整个地球都获得了使用先进的人工智能工具的特权,这种工具可以在法律考试中取得成功,可以编写计算机代码、学校论文、小说和烹饪食谱,还可以理解图片的内容并得出逻辑结论,而且往往以类似人类的方式进行。然而,很少有人深入了解什么是 GPT 及其工作原理。

虽然人工智能和机器学习(ML)已经成功地应用于模式识别、过滤和其他用途,但其范围狭窄,只专注于特定任务。相比之下,ChatGPT 和类似的文本生成系统范围更广,本质上更接近人类领域。它们在理解、生成和处理人类语言方面的卓越能力,使其在私营部门的应用多种多样,包括内容创建、语言翻译、医疗诊断、客户服务和科学研究。

许多人将这项技术归类为颠覆性技术,分析其对全球格局的影响。事实上,像 ChatGPT 这样的人工智能解决方案为个人和企业提供了强大的语言处理工具,使他们能够更轻松地获取海量信息,更高效地处理日常任务,从而改变了我们与计算机的交互方式,并改变了我们的工作方式。

本文旨在概述在更广泛的人工智能领域中支持 ChatGPT 的技术。本文还将介绍与这些技术的部署相关的众多挑战,提出潜在的军事应用,最后为军事领域可能的安全和成功应用提出值得考虑的一般指导原则。

生成式人工智能和大型语言模型

ChatGPT 和类似的文本生成系统由大型语言模型(LLM)提供支持,这是生成式人工智能的一种形式。后者包括更广泛的人工智能系统类别,旨在通过利用学习到的模式和数据自主生成新内容或输出。从内容上看,这种技术涵盖了一系列内容类型,包括文本、语音、视频和图像,每种输出都不需要明确的指令。与受预设规则或特定输入约束的传统人工智能系统不同,生成式人工智能具有独立创造与上下文相关的新衍生输出的能力。

具体来说,LLM 是一种统计模型,利用深度学习(DL)原理和复杂的内部机制来创建任何特定语言的单词序列,从而生成连贯且与上下文相关的文本。它们的主要功能包括分析文本语料库中的模式和关系,从而获得知识和能力,根据前面的上下文评估特定词语或词语序列的统计可能性,生成具有自然或类似人类品质的内容。

LLM 的运行包括两个主要阶段:训练和生成。训练包括两个阶段。首先,模型从大量文本数据集中学习统计模式,并调整其数十亿个内部参数,以开发一般的单词预测能力。其次,利用人类对模型输出的反馈进行微调,优化特定语境下的单词预测准确性,从而形成模型的最终形式。训练完成后,系统会根据提示应用所获得的知识生成新的输出,并根据先前生成的内容和提供的上下文不断完善其输出,直到达到所需的结果或完成条件。

2020 年,OpenAI 推出了 GPT-3,这是第一个在各种自然语言处理(NLP)任务中表现出卓越性能的模型。当时,GPT-3 在文本补全、翻译、摘要和问题解答方面表现出色,赢得了公众的广泛关注。GPT-3 令人印象深刻的自学能力使该模型只需最少的示例或训练就能执行任务。它的后继者 GPT-3.5 是 ChatGPT 的革命性模型,功能更加强大,并提供了更广泛的 NLP 功能。今年早些时候推出的 GPT-4 是 OpenAI 的最新模型,它将继续推动 NLP 的发展,凭借更广泛的常识和高级推理能力提供更高的准确性。此外,该模型还提供文本和图像输入和输出。

LLM 在军事领域的潜在应用

虽然军事和国防部门已经研究了各种人工智能应用,包括网络安全、海事安全、关键基础设施保护等,但目前还没有公开的 LLM 技术应用实例。然而,LLM 在组合和分析来自不同来源的原始数据方面的卓越能力,以及它们的 NLP 能力,使军事领域成为一个潜力巨大的领域。

利用这项技术来加强包括规划和决策在内的若干流程,可使空中军事行动受益匪浅。例如,人工智能的一个可能应用是通过支持参谋人员制定、评估和推荐可用的行动方案(COA),协助军事指挥官以最快的速度做出正确的决策。LLM 还可以协助情报、监视、目标捕获和侦察(ISTAR)流程,协助人类操作员实时收集、分析和评估数据,从而缩短 OODA 循环,在战场上提供决定性优势。另一个潜在应用领域可能是军事演习,生成式人工智能工具可以协助创建更逼真的场景,甚至可以增强人员不足的红军力量,从而进行更好、更高效的训练。

图:LLM 可协助人类操作员实时收集、分析和评估数据,从而为情报、监视、目标捕获和侦察(ISTAR)流程提供潜在帮助。

与 LLM 技术相关的挑战

然而,必须承认,全面整合 LLM 可能会遇到各种挑战,如确保训练数据的质量、完善模型能力、管理资源成本以及解决道德、法律和偏见问题。应对这些挑战对于确保采用 LLMs 真正增强现有流程而不损害军事行动的完整性和安全性(更不用说更广泛的社会价值和利益)具有决定性意义。

  • 道德挑战
    • 数据中的偏见

需要注意的是,LLM 是使用海量数据集进行训练的,这些数据集包含固有的、通常是隐蔽的偏见,如地理、性别、社会、伦理、道德和宗教偏见。如果不解决这些偏见,LLM 的输出可能会延续或放大现有的偏见,导致错误、不公平或歧视性的结果。在军事行动中,LLM 生成的信息或决策支持系统中的偏见可能会产生严重后果,包括可能导致歧视性目标选择、不适当的任务优先级排序或资源分配不足。

要解决偏差问题,就必须认真关注所使用的训练数据,并制定和实施减少偏差的策略。研究人员正在研究减少偏差的技术,如数据集整理、模型微调和对输出结果的持续评估,以确保输出结果的质量。

  • 问责问题

此外,使用 LLM 或任何其他类型的人工智能技术都会引起人们对受人工智能生成的信息影响或基于人工智能生成的信息做出的决策和行动的问责问题的关注。确保问责制涉及透明度、可追溯性以及将决策归因于特定个人或系统的能力。然而,研究人员认为,"人工智能和 ML 系统的内部运作很难被人类理解,被认为是黑箱方法,用户只能看到输入和输出。

这种说法对此类系统的可信度提出了质疑,因为 LLM 内部运作的不透明性使得在出现错误、偏差或有争议的输出时,很难确定责任归属。另一方面,我们也应该考虑人类决策过程的有效性和透明度,因为人脑的不完美特性往往会导致决策错误或无效、难以解释或受偏见影响。人脑有限的处理能力可能会放大这种现象。

另一个值得我们考虑的方面是,那些将作战优势置于道德和伦理考虑之上的对手可能会采用 LLM 系统,尽管它们存在缺陷和弊端。其他国家的军队,甚至是联盟内部的军队,可能会效仿他们的做法,因为害怕在战场上失去优势而采用和利用类似的不完善的人工智能解决方案。在这种可能的未来作战环境中,影响任务成功、违反人类价值观和危及生命的风险可能会超出我们有效管理的能力。

  • 财务挑战
    • 财务成本

对一些国家的军队来说,长效机制的经济负担可能是一个重大挑战,因为除了能力建设所需的基本投资外,培训和运行这些系统的相关费用可能非常高昂。培训大型 LLM 需要大量的资金投入,需要购买高性能硬件,如服务器、存储和网络设备,还需要消耗大量能源。此外,获取和管理不同的数据集以获得最佳性能需要专业技能和大量资源。在实时应用中部署 LLM 还需要持续的运营费用,包括维护和运营成本。

为进一步强调该技术带来的挑战,我们应考虑到,受国防预算和有限资源限制的国家可能会发现采用和整合该技术是不可行的,这可能会导致联盟内部出现技术和能力差距。一个值得研究的解决方案是建立机制,资助和开发供北大西洋公约组织(NATO)盟国之间使用的共享人工智能系统,类似于北约的机载预警与控制系统(AWACS)计划。

  • 熟练劳动力成本

培养熟练劳动力是能力建设的另一个关键方面,特别是考虑到全球人工智能专家的短缺。军队应投资于培训和教育计划,使其人员掌握数据科学、ML、NLP 和其他相关学科的专业知识。要为军事应用微调 LLM,就必须增加研发投资。研究工作应着眼于提高模型性能、解决局限性和偏差,并对 LLM 进行定制,以满足特定军事用途的需要。

  • 技术挑战
    • 连贯的战略

在组织内部成功整合人工智能解决方案通常取决于是否制定了协调一致的战略和强有力的商业案例。对于 LLM 而言,这意味着军队不应在未深入分析和评估其流程以及考虑更广泛的作战环境的情况下,仓促决定采用这项技术。否则,缺乏这两个基本要素--连贯的战略和强有力的业务案例--很可能会危及项目的成功。

  • 遗留系统和数据质量

将 LLM 系统与现有遗留系统集成是另一个重大挑战,因为很可能需要对系统进行大量修改,从而增加了无法实现预期结果的风险。另一个关键问题涉及用于训练人工智能系统的数据质量,因为低质量的数据会严重影响算法的功能,破坏获得准确结果的潜力,并产生相应的后果。

  • 幻觉

在研究 LLM 时还存在幻觉问题。这一术语指的是一种现象,即 LLM 生成的输出听起来似是而非,完全是捏造的,或者脱离了输入或上下文。产生幻觉的原因有很多。出现幻觉的原因多种多样,其中包括大量未固化的训练数据、缺乏对上下文的理解、罕见和不寻常的输入,以及 LLMs 接受训练时使用的语言建模技术。因此,LLM 偶尔会产生超出其预期目的的输出,或者在其反应中表现出过度自信。

不幸的是,幻觉和过度自信的反应可能并不明显,可能会在军事行动中造成风险,导致错误信息、决策失误和潜在的任务失败。研究人员正在研究几种缓解策略来解决这个问题,包括人工监督和专门设计的算法来持续检查输出。无论如何,我们都应开发和建立有效机制来检测和缓解幻觉,以确保 LLM 生成信息的可靠性和有效性。

北约的网络、人工智能和 EDT 战略

北约对人工智能、量子技术和自主系统等新兴和颠覆性技术(EDTs)表现出极大的兴趣。北约已将人工智能确定为九大优先技术领域之一,以重点开展创新活动。北约 2022 年战略概念》指出:"创新技术为北约军队提供了新的机遇,帮助他们变得更有效、更有韧性、更具成本效益和可持续性。'该文件还申明,电子战技术既带来机遇也带来风险,它们正在改变冲突的性质,获得更大的战略重要性,并成为全球竞争的关键舞台。

此外,为了促进以合乎道德的方式使用人工智能系统,美国国防部(DoD)于 2020 年发布了在军队中合乎道德和合法地采用人工智能系统的原则,其中指出,“美国必须与我们的盟友和伙伴一起,加快采用人工智能,并在其国家安全应用中发挥领导作用,以保持我们的战略地位,在未来战场上取得胜利,并维护基于规则的国际秩序”。北约也发布了类似的原则,包括合法性、问责制、可解释性(原文如此)、可追溯性、可靠性和减少偏见,以应对人工智能在军事领域带来的挑战。

结论

利用 LLMs 协助人类和加强军事进程的潜力前景广阔,可为实现作战甚至战略目标提供显著优势。LLMs 能够处理、整合和分析来自不同来源的数据,并以相关的速度对人类的输入做出类似于人类的反应,从而支持战略敏捷性、改善态势感知、改进决策过程和高效的资源分配。此外,这项技术还能帮助识别盲点,提供有价值的见解,并协助完成复杂的认知任务。

然而,训练数据中的偏差、对模型输出的问责以及潜在的幻觉都凸显了在决策过程中保持人为监督和责任的重要性。承认这些挑战并实施适当的缓解机制,对于将 LLM 适当纳入军事决策过程至关重要。此外,培训和运行这些系统所需的大量投资必须与它们为军事行动带来的潜在好处相平衡。我们还应牢记,有些军队将难以承受相关的财务成本。与此相反,其他国家将利用这种技术带来的好处,从而可能在联盟内部造成技术差距。

由于这项技术目前面临的挑战和弊端,必须将 LLM 视为辅助工具,而不是自主决策者。人的因素仍应是核心,由 LLM 提供数据驱动的见解和建议,补充人类的专业知识,形成 “人在环中”(HITL)系统。采用这种支持性方法可以充分利用 LLM 的优势,同时在军事行动中保持人的能动性、问责制和责任感。

然而,在未来战争中,军事指挥官可能需要快速应对复杂而紧张的局势,尤其是在面对近在咫尺的竞争对手时。在这种情况下,利用 LLMs 组成半自主的 “人在回路中”(HOTL)甚至自主的 “人脱离回路”(HOOTL)系统,可能是在战场上保持优势的必然选择。

科学家和研究人员正在努力实现人工通用智能(AGI),而 LLM 也在不断变得更容易实现、更有效率,它们对社会的破坏性和变革性影响将是巨大的。这项技术对个人和社会的潜在风险也相当大,这凸显了政府和组织将人工智能监管作为优先事项的必要性。强调这一重点对于保护技术、降低潜在风险和实现预期效益最大化至关重要。

成为VIP会员查看完整内容
63

贝叶斯推断:理论、方法、计算提供了对贝叶斯推断基础知识的全面覆盖,从理论、方法和计算等重要角度进行详细探讨。所有理论结果都以正式的定理、推论、引理等形式呈现,并附有详细的证明。这些理论思想以简单易懂的形式进行解释,辅以多个例子。书中对贝叶斯方法的有效性、实用性和实际应用提供了清晰的推理分析。书中包含大量的例子和练习,并提供所有练习的解决方案,以帮助学生通过充分的实践理解这些概念。本书主要针对第一或第二学期的硕士生,其中部分内容也适用于博士生或广大的研究社区。本书强调精确的案例分析。然而,为了进一步深入理解核心概念,书中专门有一章致力于计算密集型技术。书中的选定章节和部分内容可以用于一个学期的贝叶斯统计课程。主要特点:- 以易懂的形式解释贝叶斯统计推断的基本思想- 通过图解和绘图来说明主要思想- 包含大量的例子和练习- 提供所有练习的解决方案- 包含R代码西尔维林·茨万齐格是乌普萨拉大学数学统计学教授。她在柏林洪堡大学学习数学。在来瑞典之前,她曾是德国汉堡大学的助理教授,并在德意志民主共和国科学院获得数学博士学位。自1991年以来,她一直教授本科生和研究生统计学。她的研究兴趣包括理论统计和计算密集型方法。拉乌夫·艾哈迈德是乌普萨拉大学统计学系的副教授。他在德国哥廷根大学获得博士学位。在加入乌普萨拉大学之前,他曾在林雪平大学数学系数学统计学部和乌普萨拉瑞典农业科学大学生物计量学部工作。自1995年以来,他一直教授本科生和研究生统计学。他的研究兴趣包括高维推断、数学统计和U统计量。

成为VIP会员查看完整内容
58

基于Transformer架构的大语言模型展现出强大的能力,是人类迈向通用人工智能(AGI)的一个重大进步。大语言模型架构和算法的演 进分为提高推理效率、提高模型能力两条技术路线。介绍了两条技术路线主流的技术方案和思路。提高推理效率的方法有分布式推理、计算优 化、访存优化、量化等;提高模型能力主要是引入新的架构,如混合专家(MoE)模型、状态空间模型(SSM)等。 OpenAI 于 2022 年、2023 年 分 别 发 布 ChatGPT[1] 和 GPT4[2] ,其强大的会话能力、多模态能力震惊业界,是人 类迈向通用人工智能 (AGI) 的一个重大进步。ChatGPT和 GPT-4能力强大的原因有两个:一是Transformer[3] 架构的自 注意力机制,可获取任意距离间单词的相关信息;二是大 模型、大数据、大算力,规模超过了一定阈值,则会产生 涌现能力[4] 。 目前各大公司都发布了自己的大语言模型 (LLM)。本 文中,我们主要介绍大语言模型在两条技术路线上的架构和 算法的演进。 1.1 语言模型的发展历程 语言模型的发展经历了统计语言模型、神经语言模型、 预训练语言模型和大语言模型4个阶段[5] 。其结构从基于统 计概率发展到基于神经网络,模型复杂度不断增加,能力也 出现了质的提升。 1) 统计语言模型 最初的语言模型是基于统计概率的,即根据语料统计出 在某个上下文出现某个词的概率,根据概率选择最合适的词。 2) 神经语言模型 文献[6]首次将神经网络引入语言模型。常见的模型结 构有循环神经网络 (RNN)[7] 、长短期记忆网络 (LSTM)[8] 等。RNN用隐藏层保存逐个输入的词的信息,但由于梯度 消失和梯度爆炸,只能保留短期信息。LSTM使用门控机制, 可以选择性地保留长期信息。 3) 预训练语言模型 ELMo[9] 用预训练的双向LSTM网络根据上下文动态生成 词向量,解决了一词多义问题。双向LSTM网络可以在下游 任务上微调,得到更好的效果。基于Transformer的双向编码 器表征法 (BERT)[10] 也采用了预训练+下游任务微调的 范式。 4) 大语言模型 预训练语言模型的性能随着规模的增大而提高,成幂律 关系[11-12] 。OpenAI设计了大型语言模型GPT-3[13] 。该模型表 现出强大的能力,性能和规模超越了幂律关系,出现了涌现1.2 大语言模型算法演进路线 大语言模型的发展主要有两条技术路线:一是提高推理 效率,降低推理成本;二是提高模型能力,迈向AGI。 大语言模型能力强大,有广阔的应用前景,各厂商都在 积极部署,提供服务。但是,由于模型规模巨大,算法对硬 件不够友好,需要消耗大量的算力、存储、能源。因此,如 何降低推理成本、推理延时,是一个亟待解决的问题。大语 言模型主要的技术路线有分布式推理、减小模型计算量、减 小模型访存量、提升硬件亲和性等。 大语言模型是迈向AGI的重大进步,而Transformer是其 中的核心架构,发挥了重大作用。但Transformer也有一定的 不足,如计算量大,通过提升规模来提升性能更加困难;上 下文窗口长度有限,难以支持超长序列。研究人员通过引入 新的结构,解决这些问题,取得了较好的效果。

成为VIP会员查看完整内容
50

工具学习就是让语言模型学会使用工具,遵循人类的指令,操纵工具来完成任务。这里的工具可以是软件程序,比如搜索引擎、知识库、文档阅读器、图像识别模型等等,也可以是硬件设备,比如家用电器、机器人等。语言模型通过对环境中的工具进行调用和交互,利用工具反馈的信息,最终给出满足要求的高质量结果。

成为VIP会员查看完整内容
54

计算机视觉近年来取得了巨大进展,其应用多种多样且增长迅速,但仍存在许多挑战。本书汇集了一系列领先研究人员,探讨了计算机视觉及其应用的各种研究方向、挑战和前景。 本书重点介绍了领域内顶尖研究人员提出的各种核心挑战及解决方案。涵盖了数据驱动的AI、生物识别、数字取证、医疗保健、机器人技术、娱乐和XR、自动驾驶、体育分析和类脑计算等重要话题,涵盖了学术和工业研发的视角。通过广度与深度的结合,本书将在计算机视觉、成像和AI领域产生深远影响。 《计算机视觉:挑战、趋势和机遇》涵盖了计算机视觉及其应用的及时和重要方面,突出未来的挑战并提供来自全球顶尖研究人员的各种视角。作为一个重要的思想和最新解决方案的合集,它将为学生、研究人员和行业从业者带来巨大益处。

关于作者 Md Atiqur Rahman Ahad, Ph.D.,IEEE高级会员,OPTICA(前OSA)高级会员,达卡大学(DU)电气与电子工程教授。目前,他在日本大阪大学担任特别聘任副教授。他的研究领域包括计算机视觉、成像、物联网、医疗保健等。他获得了2018年由孟加拉国总统颁发的UGC金奖、JSPS博士后奖学金以及多个奖项/奖学金。他曾在KIT担任访问研究员,已出版十余本书籍和约200篇期刊文章、会议论文和书籍章节。他在各种会议/期刊/学会中获得了约40个国际奖项,曾约110次被邀请在不同的会议/大学中担任主旨发言人。他建立了多个国际合作备忘录/合作关系(如克莱姆森大学、兵库大学、RCCIIT、福冈女子大学、九州大学等)。 网站:http://ahadVisionLab.com Upal Mahbub, Ph.D.,IEEE高级会员,目前在美国加利福尼亚州圣地亚哥高通技术公司的多媒体研发实验室担任高级工程师。他在马里兰大学帕克分校获得电气和计算机工程博士学位(2018)和硕士学位(2017)。在攻读博士学位之前,Mahbub博士是孟加拉国工程技术大学电气与电子工程系的助理教授。Upal Mahbub获得了IEEE UEMCON 2016最佳论文奖、BTAS 2016最佳海报奖、ICCIT 2011最佳论文奖以及马里兰大学A. James Clark工程学院的杰出研究生奖学金。他在国际会议和著名期刊上发表了三十多篇文章,最近出版了一本题为《无接触人类活动分析》的编辑书籍,担任国际期刊的编辑(PRL特刊AHAAGR 2021的客座编辑,IJCVSP的副编辑),在众多会议上展示了他的研究,并在ICIEV(2012-2021)、IVPR(2020赛道主席、2021程序主席)、ICECE(2010和2012)和ABC(2019、2020、2021)的技术和/或程序委员会中任职。 Matthew Turk, Ph.D.,IEEE会士,IAPR会士,现任芝加哥丰田技术学院(TTIC)院长,美国加利福尼亚大学圣巴巴拉分校计算机科学荣休教授,在那里他共同指导UCSB Four Eyes实验室,专注于成像、交互和创新界面。他在麻省理工学院获得博士学位,曾在Martin Marietta Aerospace、LIFIA/ENSIMAG(法国格勒诺布尔)、Teleos Research和微软研究院工作,在微软研究院时,他是视觉技术小组的创始成员。他担任了多次主要会议的大会主席或程序主席,包括ACM多媒体会议、IEEE自动人脸与手势识别会议、ACM国际多模式交互会议、IEEE计算机视觉与模式识别会议和IEEE冬季计算机视觉应用会议。他在2014年共同创办了一家增强现实初创公司,2016年被PTC Vuforia收购。Turk博士获得了多项最佳论文奖,并且是ACM会士、IEEE会士、IAPR会士,并获得了2011-2012年富布赖特-诺基亚信息与通信技术杰出主席奖。 Richard Hartley, Ph.D.,IEEE会士,澳大利亚科学院会士,澳大利亚数学学会会士,是澳大利亚国立大学信息工程系计算机视觉小组成员,自2001年1月起在此工作。他在加拿大多伦多大学完成数学博士研究(1976年),并在同一大学获得数学硕士学位(1972年)以及斯坦福大学计算机科学硕士学位(1985年)。Hartley博士从1985年到2001年在通用电气研发中心工作。在1985-1988年期间,他参与了电子设计的计算机辅助设计工具的设计和实现,并创建了一个非常成功的设计系统叫Parsifal硅编译器。由于这项工作,他在1991年获得了通用电气的Dushman奖。

成为VIP会员查看完整内容
51

体验GPT 3.5、GPT 4、LangChain、Llama 2、Falcon LLM等,构建基于LLM的复杂AI应用主要特点- 将LLM嵌入到实际应用中- 使用LangChain在应用中编排LLM及其组件- 掌握提示工程的基础和高级技术

书籍描述《Building LLM Apps》探讨了LLM提供的基本概念、前沿技术和实际应用,最终为扩展AI能力的大型基础模型(LFMs)的出现铺平了道路。本书从深入介绍LLM开始。接下来,我们探索了各种主流架构框架,包括专有模型(GPT 3.5/4)和开源模型(Falcon LLM),并分析了它们的独特优势和差异。然后,重点介绍基于Python的轻量级框架LangChain。我们引导读者通过创建智能代理的过程,这些智能代理能够使用LLM和强大的工具包从非结构化数据中检索信息并与结构化数据进行交互。此外,本书还探讨了LFMs的领域,这些模型超越了语言建模,涵盖了各种AI任务和模态,如视觉和音频。无论您是经验丰富的AI专家还是该领域的新手,本书都是解锁LLM全部潜力并开创智能机器新时代的路线图。

您将学到什么- LLM架构的核心组件,包括编码器-解码器块、嵌入等- 熟悉GPT-3.5/4、Llama 2和Falcon LLM等LLM的独特功能- 使用LangChain和Streamlit作为前端的AI编排器- 熟悉LLM组件,如记忆、提示和工具- 学习非参数知识、嵌入和向量数据库- 了解LFMs对AI研究和行业应用的影响- 通过微调定制您的LLM- 了解LLM驱动应用的伦理影响

本书适合谁本书适合希望获得将LLM应用于构建应用的实用指导的软件工程师和数据科学家。对应用LLM主题感兴趣的技术领导者、学生和研究人员也会对本书感兴趣。我们不假设读者具备LLM的先前经验,但读者应具有核心的机器学习/软件工程基础,以理解和应用内容。

成为VIP会员查看完整内容
47

在本论文中,我们研究了机器学习算法的分布内泛化,重点是建立严格的泛化误差上界。我们引入并分析了量化学习算法与训练数据之间依赖关系的信息论界,脱离了传统的复杂性基础方法。我们考虑了两类泛化保证:

-** 期望保证**。这些界衡量平均情况下的性能。这里,算法与数据之间的依赖关系通常由互信息或基于f-散度的其他信息度量来捕捉。虽然这些度量提供了直观的解释,但可能忽视算法假设类的几何结构。为了解决这一限制,我们引入了使用Wasserstein距离的界,Wasserstein距离结合了几何考虑,但数学上更复杂。此外,我们提出了一种结构化、系统的方法,以推导出捕捉算法与单个数据之间以及算法与数据子集之间依赖关系的界,这些界是基于已知其他数据条件下的。这类界提供了更深入的见解,我们通过应用它们推导随机梯度Langevin动力学算法的泛化误差界来证明这一点。

  • PAC-Bayesian保证。这些界以高概率衡量性能水平。这里,算法与数据之间的依赖关系通常通过相对熵来衡量。我们建立了Seeger–Langford界和Catoni界之间的联系,揭示了前者由Gibbs后验优化。此外,我们为各种损失函数(包括有界范围、累积生成函数、矩或方差)的损失函数引入了新的、更紧的界。为此,我们引入了一种新的技术来优化概率陈述中的参数。

我们还研究了这些方法的局限性。我们提出了一个反例,其中大多数现有的(基于相对熵的)信息论界失效,而传统方法则不会。最后,我们探索了隐私与泛化之间的关系。我们展示了具有有限最大泄漏的算法可以泛化。此外,对于离散数据,我们推导出差分隐私算法的新界,这些界随着样本数量的增加而消失,从而保证即使在隐私参数不变的情况下也能泛化。这与文献中的先前界形成对比,后者需要隐私参数随着样本数量的增加而减小才能确保泛化。

成为VIP会员查看完整内容
47

开、闭源模型共存满足不同开发需求,多模态有望催生现象级应用。大语言模型方面,闭源模型是模型基础能力上限持续突破的主阵地,同时通过开放API的方式实现能力延展。此外,开源与闭源模型差距缩小,并通过微调进一步助推应用生态繁荣。多模态方面,在头部AI公司及细分赛道领先者的共同推动下,图像、音视频生成等多模态愈发成熟。此外,集成文本、语音等混合多模态模型推出,变革人机交互方式,有望在强交互性场景中催生现象级应用。

  海外文本编辑类应用表现亮眼,国内有望复制海外发展路径。从4月全球访问量前100网页版AI应用来看,可分为基于大语言模型的文本编辑类和代码编程类应用,以及基于多模态模型的图像类和音视频/游戏类应用,共四大类。其中文本编辑类因为基础模型能力技术较为成熟,因此应用最成熟:数量占比达58%,单月访问量过亿的8个应用中占7个。此外,现阶段海内外应用仍存在较大差距:海外前十AI应用单月访问量总和为55亿,而国内为1.2亿,头部产品ChatGPT单月访问量为18.6亿,国内Kimi为2004万。但从过去3个月来看,海内外前十应用的总访问量差距正逐步缩小。     模型能力决定应用体量的下限,场景适配度决定上限。文本编辑类:海外访问量最高的是聊天机器人,其次是搜索引擎。因模型能力与场景适配度高,虚拟角色和教育应用体量上限较高:前者因容错率高有望随模型能力提升实现线性增长,而后者因容错率低需要模型出现较大迭代后方能实现体量突破。图像类应用:多数应用集成了图像生成和编辑功能,未来有望通过加深与B端场景融合实现规模增长。音视频/游戏类:全球视频和游戏市场规模均超1万亿元,场景天花板高同时AI适配度高。但因受限于多模态模型能力,目前尚未有过亿的应用。未来在AI深度赋能行业创作工作流的同时,AI+UGC视频和UGC游戏将是C端现象级应用的重要方向。

成为VIP会员查看完整内容
48

大型语言模型(LLM)和扩散模型(如ChatGPT和Stable Diffusion)具有前所未有的潜力。由于它们在互联网上的所有公开文本和图像上进行了训练,它们可以为各种任务做出有用的贡献。今天,进入门槛大大降低,几乎任何开发人员都可以利用LLM和扩散模型来解决以前不适合自动化的问题。 通过这本书,您将获得生成式AI的坚实基础,包括如何在实践中应用这些模型。当首次将LLM和扩散模型整合到他们的工作流程中时,大多数开发人员会发现很难从它们中获得足够可靠的结果以用于自动化系统。作者James Phoenix和Mike Taylor向您展示了一套名为提示工程的原则,这些原则可以帮助您有效地与AI合作。 学习如何让AI为您服务。这本书解释了:

  • 您的程序AI模型的交互链结构以及其中的细化步骤
  • AI模型请求如何通过将应用问题转化为模型训练领域中的文档完成问题而产生
  • LLM和扩散模型架构的影响——以及如何最好地与之互动
  • 这些原则如何在自然语言处理、文本和图像生成以及代码领域的实践中应用 评价: “这是我读过的关于提示工程的最好的书籍资源。Mike和James是这门艺术的高手。” ——Dan Shipper,Every联合创始人兼CEO “这本书是对提示工程和生成式AI基础知识的扎实介绍。作者以简单、实用、易于理解的方式,涵盖了从初学者到高级用户的一系列有用技术。如果您希望提高AI系统的准确性和可靠性,这本书应该在您的书架上。” ——Mayo Oshin,Siennai Analytics创始人兼CEO,早期LangChain贡献者 “Phoenix和Taylor的指南是生成式AI广阔海洋中的灯塔。这本书成为我们在Phiture AI Labs团队的基石,因为我们学习如何利用LLM和扩散模型创建与客户应用和游戏本质相符的营销资产。通过提示工程,我们能够大规模生成定制的、符合品牌的内容。这不仅仅是理论;这是一个实际的实践课,教你如何将AI的潜力转化为定制解决方案,对于希望提升AI整合到新高度的开发人员来说,这是必读书。” ——Moritz Daan,Phiture Mobile Growth Consultancy创始人兼合伙人 “提示工程对于生成式AI可能是未来最具前瞻性的方法。这无疑是任何从事AI实际应用的人最好的资源。书中丰富且精炼的原则将帮助新老AI工程师在未来保持领先地位。” ——Ellis Crosby,Incremento CTO兼联合创始人 “这是针对代理和服务专业人员的必备指南。通过自动化管理将AI与服务和客户交付相结合,加快解决方案速度,将设立新的行业标准。您将在书中找到有用、实用的信息和战术,使您能够全面了解和利用AI。” ——Byron Tassoni-Resch,WeDiscover CEO兼联合创始人 来自作者: 自2020年GPT-3测试版以来,我们一直在进行提示工程,而当GPT-4到来时,我们发现许多以前使用的技巧和技巧不再必要。这促使我们定义了一套面向未来的原则,这些原则可以跨模型和模态传递,即使在未来使用GPT-5或其他模型时也依然有用。 提示的五大原则是:
  1. 给出方向:详细描述所需的风格,或参考相关角色。
  2. 指定格式:定义要遵循的规则和响应的结构。
  3. 提供示例:插入一组多样的测试案例,其中任务已正确完成。
  4. 评估质量:识别错误并对响应进行评级,测试什么驱动性能。
  5. 分工合作:将任务分解为多个步骤,链式完成复杂目标。 我们于2022年7月首次以博客文章形式发布了这些原则,它们经受住了时间的考验,包括与OpenAI自己的一年后发布的提示工程指南有相当大的对应。任何与生成式AI密切合作的人可能都会趋向于采用类似的策略来解决常见问题,但这本书旨在让您更快地达到目的。 在整本书中,您会看到数百个提示技巧的示例,包括文本和图像提示,以及使用Python构建AI自动化脚本和产品。这不仅仅是一份提示技巧清单,而是一本关于构建系统的实用指南,这些系统为AI应用程序提供了正确的上下文,并教您如何测试和扩展生产中的AI系统。 如果以下情况,这本书将对您有用:
  • 您的时间价值超过每小时40美元,读这本书可以节省您从多个来源拼凑信息的几小时。
  • 您不仅是随便使用AI,而是在构建一个AI应用程序或内部模板,许多人每天会使用数百或数千次。
  • 您希望减少幻觉并提高AI的可靠性,同时学习数百个解决AI常见问题的真实示例。
  • 您想比较OpenAI与其他模型的优缺点,以及常见框架如LangChain、不同的向量数据库选项和AUTOMATIC1111
  • 您希望看到从一个简单提示到一个完整AI代理的端到端AI应用程序的构建过程,包括使用Gradio构建基本用户界面
成为VIP会员查看完整内容
44

在需要做出重大决策的关键系统中,通常无法实现或不希望实现完全自动化。相反,人类-人工智能团队可以取得更好的效果。为了研究、开发、评估和验证适合这种团队合作的算法,有必要建立轻量级实验平台,实现人类与多个智能体之间的互动。然而,此类平台在国防环境中的应用实例非常有限。为了填补这一空白,我们提出了 Cogment 人机协同实验平台,该平台实现了以异构多智能体系统为特征的人机协同(HMT)用例,可涉及学习型人工智能智能体、静态人工智能智能体和人类。它建立在 Cogment 平台上,已被用于学术研究,包括在今年的 AAMAS 的 ALA 研讨会上展示的工作。希望通过这个平台,进一步促进关键系统和国防环境中的人机协作研究。

图 1:该图显示了 Cogment HMT 实验平台的主用户界面。左侧带帽的圆圈是由五个蓝色智能体组成的团队防守的禁区。右侧的单个红点是无人机攻击者。

嵌入式人工智能体,如无人驾驶飞行器(UAV,或无人机),有可能彻底改变各行各业,包括交通、农业和安防。然而,这些智能体在物理世界中发展,因此可能会产生危险影响,尤其是在无人监管的情况下。例如,无人机可能会出现故障或无法识别潜在危险,从而造成财产损失甚至人员伤亡。此外,智能体可以根据算法做出决策,而算法可能不会考虑伦理、道德或法律方面的影响。因此,人类必须有能力对这些智能体进行有意义的控制[2]和监督,以确保它们的安全和负责任的使用。人类操作员可以监控和干预系统故障,评估潜在风险,并在需要其判断的复杂情况下做出道德或法律决定。

除了监督,人类还可以通过协作在帮助智能体实现任务方面发挥关键作用。例如,对于无人机,控制中心的人类操作员可以提供实时指导和支持,确保无人机准确、高效地执行所需的功能。此外,人类还可以在现场充当队友,与具身的人工智能体并肩作战,实现既需要人类判断又需要机器精确度的复杂目标。

此外,必须认识到,人机协作(HMT),即人类与具身智能体建立双向协作的能力,是安全有效使用人工智能的一个关键方面。这类人工智能体的设计、训练、验证和操作不能孤立地进行,必须考虑它们如何融入包括它们在内的更大系统中。人类,尤其是作为操作员或队友的人类,从一开始就应被视为该系统不可分割的一部分。

除了这种双向协作之外,具身人工智能系统在运行过程中往往没有考虑到 “道德责任 ”和 “社会技术 ”因素[2]。有意义人类控制(MHC)的概念是由 Santoni de Sio 和 van den Hoven 提出的,目的是让人类能够影响具身人工智能体的行为[3]。然而,MHC 的原始定义并不一致,因为人类可能缺乏专业技能或知识,无法完全有效地控制人工智能系统。Cavalcante Siebert 等人[2]提出了四个附加属性来改进 MHC 的原始定义:“明确的道德操作设计领域”、“适当且相互兼容的表征”、“控制能力和权限 ”以及 “人工智能与人类行动之间的明确联系”。因此,至关重要的是设计一个协调平台,将有意义的人类控制和人类在环相结合,以确保人工智能系统的训练和操作方式符合人类价值观、社会规范和道德行为。

Cogment HMT 提供了一个设计和实验人机团队的平台,尤其是涉及无人机的人机团队。它以我们的 Cogment [4] 平台为基础,解决了协调自动决策系统(包括人工智能体)、人类之间的协作及其对数据的访问和对环境的影响等难题。Cogment HMT 实验平台目前使用一个模拟环境,可以很容易地进行调整,以适应更真实的模拟和现实世界的部署。我们将在第三节介绍该平台及其特性。

利用 Cogment HMT 实验平台,人工智能从业者可以开发出能够与人类协同工作的智能体,并从人类的知识和期望中学习,同时考虑有意义的人类控制、信任和认知负荷管理等因素,实现有效的双向人机协作。我们将在第四部分介绍早期成果。

成为VIP会员查看完整内容
44

目标。在这本书中,这是两本书中的第二卷,我们研究了复杂网络中随机图模型的局部极限、连接组件和小世界属性。第一卷描述了自1999年以来作为现实世界网络模型的随机图的初步研究。这些网络在元素连接数量等方面与经典随机图模型有很大的不同。结果,发明了许多新的模型来捕捉这些属性。第一卷研究了这些模型及其度结构。第二卷总结了这一激动人心时期关于所提出的随机图模型的局部结构、连通性和小世界结构的发展见解。第一卷旨在用于硕士课程,学生对概率论的特殊主题只有有限的先验知识,而第二卷描述了过去二十年来研究社区关注的更复杂的概念。第二卷旨在用于博士课程、阅读研讨会,或希望获得该科学领域结果和方法的全面概述的研究人员。第一卷包括许多基础知识,例如随机变量的收敛性、概率界限、耦合、鞅和分支过程,我们经常依赖这些结果。这一系列的第一卷和第二卷旨在自成体系。在第二卷中,我们简要重复了第一卷中讨论的随机图的某些基础知识,包括关键模型及其度分布的介绍。在第二卷中,我们力求提供详细而完整的证明。在我们不提供证明的地方,我们提供启发式方法以及大量的文献参考。我们还讨论了几种更新的随机图模型,旨在更现实地模拟现实世界的网络,因为它们包含了网络的有向性质、社区结构和/或空间嵌入。发展。随机图领域由Erdos和Rényi在1959-1960年开创于概率方法的背景下。Erdos和Rényi的初步工作引发了该领域的大量后续研究,最初主要在组合数学社区内进行。有关该主题的标准参考文献见Bollobás(2001)和Janson、Łuczak、Rucinski(2000)。Erdos和Rényi(1960)提供了Erdos-Rényi随机图中发生的各种相变的相当完整的图景。这一初步工作并没有旨在现实地模拟现实世界的网络。在1999年之后,由于大量现实世界网络数据集变得丰富可用,其结构在数学及各种应用领域中引起了极大的关注。这一点可以从该领域最早的文章之一——Barabási和Albert(1999)——获得超过40,000次引用中得到体现。从这一压倒性研究工作得出的主要结论之一是,许多现实世界的网络共享两个基本特性。首先,它们高度不均匀,不同的顶点在网络中扮演的角色非常不同。这一特性通过现实世界网络的度结构服从幂律来体现:这些网络是无标度的。这一现实世界网络的无标度性质促使社区提出了许多新颖的随机图模型,这些模型与Erdos-Rényi随机图不同,具有幂律度序列。这是第一卷的主要焦点。内容。在本书中,我们继续第一卷中的轨迹,现在我们关注顶点之间的连接结构。连通性可以总结为现实世界网络的两个关键方面:它们高度连通,通常具有一个包含大部分顶点(如果不是全部的话)的巨型组件;它们是小世界的,大多数顶点对通过短路径分隔。我们讨论了这些证明的可用方法,包括路径计数技术、分支过程近似、可交换随机变量和de Finetti定理。我们特别关注一种称为局部收敛的最近技术,它精确地说明了随机图“局部看起来像树”的说法。这本书由四部分组成。第一部分包括第1章和第2章,我们在第1章中重复了一些第一卷的定义,包括本书研究的随机图模型,即不均匀随机图、配置模型和优先附着模型。我们还讨论了随机图理论中的一些重要主题,例如幂律分布及其性质。在第2章中,我们继续讨论局部收敛,这是一种在随机图理论和本书中起关键作用的极其强大的技术。第二部分包括第3-5章,我们讨论了随机图模型中的局部极限和大型连通组件。在第3章中,我们进一步扩展了广义随机图的定义,以包括一般不均匀随机图。在第4章中,我们讨论了配置模型中的局部极限和大型连通组件,在第5章中,我们讨论了优先附着模型中的局部结构和连通性。第三部分包括第6-8章,我们研究了随机图的小世界性质,从不均匀随机图开始,继续讨论配置模型,最后讨论优先附着模型。第四部分包括第9章,我们研究了相关的随机图模型及其结构。在此过程中,我们给出了许多练习,应该有助于读者通过解决问题来更深入地理解材料。这些练习出现在每章的最后一节,在适用的情况下,我们在正文中适当位置引用它们。我们还在每章的倒数第二节提供了广泛的注释,讨论了与文献的联系和一些扩展。

成为VIP会员查看完整内容
44

PHITE:让人工智能在战术边缘发挥决策优势

问题:当今的人工智能软件计算成本高昂,需要大量的知识、技能和精力才能在战术边缘的低功耗设备上采用。

解决方案: 开发机器学习 (ML) 算法开源库,针对低功耗(100 毫瓦-10 瓦)嵌入式设备进行优化。

美国防部收益:

  • 帮助在各种边缘应用中部署 ML。

  • 可快速采用新的/新颖的嵌入式硬件架构。

  • 有效利用有限的硬件,提高人工智能/ML 应用的性能。

  • 通过便携且功能更强的软件基础,在战术边缘实现更广泛的应用。

机遇领域:

  • 兵载传感器
  • 预测性维护
  • 无人值守传感器
  • 物联网/物联网设备

成为VIP会员查看完整内容
44
登陆后查看更多精品内容
VIP会员
本周荟萃主题
区块链
区块链(Blockchain)是由节点参与的分布式数据库系统,它的特点是不可更改,不可伪造,也可以将其理解为账簿系统(ledger)。它是比特币的一个重要概念,完整比特币区块链的副本,记录了其代币(token)的每一笔交易。通过这些信息,我们可以找到每一个地址,在历史上任何一点所拥有的价值。
深度学习
机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。
机器学习
“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。”

——中文维基百科
强化学习
强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。
推荐系统
推荐系统,是指根据用户的习惯、偏好或兴趣,从不断到来的大规模信息中识别满足用户兴趣的信息的过程。推荐推荐任务中的信息往往称为物品(Item)。根据具体应用背景的不同,这些物品可以是新闻、电影、音乐、广告、商品等各种对象。推荐系统利用电子商务网站向客户提供商品信息和建议,帮助用户决定应该购买什么产品,模拟销售人员帮助客户完成购买过程。个性化推荐是根据用户的兴趣特点和购买行为,向用户推荐用户感兴趣的信息和商品。随着电子商务规模的不断扩大,商品个数和种类快速增长,顾客需要花费大量的时间才能找到自己想买的商品。这种浏览大量无关的信息和产品过程无疑会使淹没在信息过载问题中的消费者不断流失。为了解决这些问题,个性化推荐系统应运而生。个性化推荐系统是建立在海量数据挖掘基础上的一种高级商务智能平台,以帮助电子商务网站为其顾客购物提供完全个性化的决策支持和信息服务。
卷积神经网络
在深度学习中,卷积神经网络(CNN或ConvNet)是一类深度神经网络,最常用于分析视觉图像。基于它们的共享权重架构和平移不变性特征,它们也被称为位移不变或空间不变的人工神经网络(SIANN)。它们在图像和视频识别,推荐系统,图像分类,医学图像分析,自然语言处理,和财务时间序列中都有应用。
计算机网络
计算机网络( Computer Networks )指将地理位置不同的多台计算机及其外部设备,通过通信线路连接起来,在网络操作系统及网络通信协议的管理和协调下,实现资源共享和信息传递的计算机系统。
命名实体识别
命名实体识别(NER)(也称为实体标识,实体组块和实体提取)是信息抽取的子任务,旨在将非结构化文本中提到的命名实体定位和分类为预定义类别,例如人员姓名、地名、机构名、专有名词等。
机器翻译
机器翻译,又称为自动翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。它是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。
计算机视觉
计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。
微信扫码咨询专知VIP会员