近年来,图神经网络(GNN)领域取得了快速和令人难以置信的进展。图神经网络,又称图深度学习、图表示学习或几何深度学习,已成为机器学习特别是深度学习领域发展最快的研究课题之一。这波图论和深度学习交叉的研究浪潮也影响了其他科学领域,包括推荐系统、计算机视觉、自然语言处理、归纳逻辑编程、程序合成、软件挖掘、自动规划、网络安全和智能交通。

尽管图神经网络已经获得了极大的关注,但在将其应用到其他领域时,它仍然面临着许多挑战,从方法的理论理解到实际系统中的可扩展性和可解释性,从方法的可靠性到应用中的经验性能。然而,随着该领域的迅速发展,获得全球视野的gnn的发展已成为一项极具挑战性的工作。

因此,我们感到迫切需要弥补上述差距,并就这一快速发展但具有挑战性的主题出版一本全面的书,它可以造福广泛的读者,包括高级本科生和研究生、博士后研究人员、讲师和行业从业者。

这本书旨在涵盖图神经网络中广泛的主题,从基础到前沿,并从方法到应用。本书致力于介绍GNNs的基本概念和算法,GNNs的新研究前沿,以及GNNs的广泛和新兴应用。

书籍地址: https://graph-neural-networks.github.io/index.html

领域大牛推荐

“第一本全面涵盖一个快速发展的研究领域——图神经网络(GNN)的书,由权威作者撰写!”

韩家炜 - 美国伊利诺伊大学香槟分校计算机系教授,IEEE和ACM院士

这本书提出了一个全面和及时的图表示学习综述。由这一领域最好的专家编辑撰写,这本书是想学习任何关于图神经网络的学生,研究人员和实践者的必读作品。”

沈向洋-计算机视觉和图形学研究的世界级专家,IEEE Fellow,ACM Fellow)美国工程院院士,英国皇家工程科学院的国际院士

“作为深度学习的新前沿,图神经网络在结合概率学习和符号推理、连接知识驱动和数据驱动范式、开启第三代人工智能发展方面提供了巨大的潜力。这本书提供了全面和深刻的GNN介绍,从基础到前沿,从算法到应用。对于任何想要进入这一令人兴奋的领域的科学家、工程师和学生来说,这都是宝贵的资源。”

张钹 - 中国科学院院士,清华大学教授

“图神经网络是机器学习最热门的领域之一,这本书是一个很棒的深度资源,涵盖了图表示学习的广泛主题和应用。” Jure Leskovec -斯坦福大学副教授

图神经网络是一种新兴的机器学习模型,已经在科学和工业领域掀起了一场风暴。是时候采取行动了!它的章节都是由该领域的许多专家精心撰写的。”

Petar Velickovic - DeepMind 高级研究科学家

目录内容:

本书主要分为3部分: Introduction, Foundations of Graph Neural Networks, 和 Frontiers of Graph Neural Networks.

第一部分:引言 第 1 章 表示学习 第 2 章 图表示学习 第 3 章 图神经网络

第二部分:基础 第 4 章 用于节点分类的图神经网络 第 5 章 图神经网络的表达能力 第 6 章 图神经网络:可扩展性 第 7 章 图神经网络中的可解释性 第 8 章 图神经网络:对抗鲁棒性

第三部分:前沿 第 9 章 图神经网络:图分类 第 10 章 图神经网络:链接预测 第 11 章 图神经网络:图生成 第 12 章 图神经网络:图变换 第 13 章 图神经网络:图匹配 第 14 章 图神经网络:图结构学习 第 15 章 动态图神经网络 第 16 章 异构图神经网络 第 17 章 图神经网络:AutoML 第 18 章 图神经网络:自监督学习

第四部分:应用

第 19 章 现代推荐系统中的图神经网络 第 20 章 计算机视觉中的图神经网络 第 21 章 自然语言处理中的图神经网络 第 22 章 程序分析中的图神经网络 第 23 章 软件挖掘中的图神经网络 第 24 章 药物开发中基于 GNN 的生物医学知识图谱挖掘 第 25 章 预测蛋白质功能和相互作用的图神经网络 第 26 章 异常检测中的图神经网络 第 27 章 城市智能中的图神经网络

作者介绍

吴凌飞博士现任京东硅谷研发中心首席科学家。吴博士曾经是 IBM T. J. Watson Research Center 研究科学家和团队带头人。吴博士在 2016 年从威廉玛丽大学取得计算机博士学位。他的研究内容包括机器学习、表征学习和自然语言处理。

吴博士带领的 Graph4NLP (Deep Learning on Graphs for Natural Language Processing) 团队(12+ 研究科学家)致力于机器学习与文本数据挖掘领域的基础研究,并运用机器学习与文本数据挖掘方法解决实际问题。其学术成果先后发表在 NeurIPS, ICML, ICLR, ACL, EMNLP, KDD, AAAI, IJCAI 等国际顶级会议及期刊上,发表论文超过 80 多篇。代表作包括 IDGL, MGMN, Graph2Seq, GraphFlow。多项学术论文获得著名国际大会的最佳论文和最佳学术论文奖,包括 IEEE ICC 2019。

吴博士同时现任 IEEE 影响因子最高期刊之一 IEEE Transactions on Neural Networks and Learning Systems(TNNLS) 和 ACM SIGKDD 旗舰期刊 ACM Transactions on Knowledge Discovery from Data (TKDD) 的副主编。多次组织和担任国际顶级会议大会或者领域主席,如 AAAI, IJCAI, KDD, NeurIPS, ICLR, ICML, ACL, EMNLP。

崔鹏,清华大学计算机系长聘副教授。于 2010 年获得清华大学博士学位,研究兴趣包括因果正则机器学习(causally-regularized machine learning)、网络表示学习和社交动态建模。他在数据挖掘和多媒体领域知名会议和期刊上发表文章 100 多篇,近期研究获得 IEEE Multimedia Best Department Paper Award、ICDM 2015 最佳学生论文奖等多个奖项。2015 年,他获得 ACM 中国新星奖,2018 年获得 CCF-IEEE CS 青年科学家奖。目前,他是 ACM 和 CCF 杰出会员、IEEE 高级会员。

裴健在数据科学、大数据、数据挖掘和数据库系统等领域,是世界领先的研究学者,国际计算机协会(ACM)院士和国际电气电子工程师协会(IEEE)院士,擅长为数据密集型应用设计开发创新性的数据业务产品和高效的数据分析技术。因其在数据挖掘基础、方法和应用方面的杰出贡献,裴健曾获得数据科学领域技术成就最高奖 ACM SIGKDD Innovation Award(ACM SIGKDD 创新奖)和 IEEE ICDM Research Contributions Award(IEEE ICDM 研究贡献奖)。2018 年,裴健入职京东,任集团副总裁。此前,裴健教授还曾担任华为首席科学家。2019 年 9 月,裴健当选加拿大皇家学会院士。

赵亮现为埃默里大学担任计算机系助理教授,研究方向为数据挖掘、机器学习和优化。此前曾在乔治梅森大学信息科技学院和计算机学院担任助理教授。2016 年秋,赵亮获得弗吉尼亚理工大学的博士学位。此外,赵亮曾获 2020 年美国自然科学基金委员会杰出青年奖(NSF CAREER AWARD)、2019 年 Jeffress Trust Award、2017 年弗吉尼亚理工大学计算机学院杰出博士奖,并入选 2016 年微软评选出的数据挖掘领域 20 位学术新星。他还获得过 ICDM 2019 会议的最佳论文奖项。

成为VIP会员查看完整内容
1
153
“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

在本章中,我们将讨论神经网络(NN) 的一些复杂之处,NN也是深度学习(DL) 的基 石。我们将讨论神经网络的数学基础、架构和训练过程。本章的主要目的是让你对神经网络有一个系统的了解。通常 ,我们从计算机科学的角度来看待它们一将其看作由许多不同步骤 / 组件组成的机器学习(ML) 算法(甚至可以看作一个特殊实体)。我们通过神经元、层等思考 的方式获得一些认知(至少我第一次了解这个领域时是这样做的)。这是一种非常有效的方式. 在这种理解水平上.我们可以做出令人印象深刻的事情。然而.这也许不是正确的方法。神 经 网 络 具 有 坚 实 的 数 学 基 础 . 如 果 我 们 从 这 个 角 度 来 研 究 它 , 就 能 以 更 基 础 、 更 优 雅 的 方 式 来 定 义 和 理 解 它 。因 此 , 本 章 将 从 数 学 和 计 算 机 科 学 的 角 度 强 调 神 经 网 络 之 间 的 比 较 。如 果 你 已 经 熟 悉 这 些 , 可 以 跳 过 本 章 。尽 管 如 此 , 我 还 是 希 望 你 能 发 现 一 些 你以前不知道的有趣的地方

成为VIP会员查看完整内容
0
95

来源: 腾讯研究院

随着各界对 AI 伦理的日益重视,AI 系统的可解释性也逐渐成为热点,甚至上升到立法和监管的要求。许多人工智能领域的专家都把 2021 年视为“AI 可解释元年”,在这一年,不仅政府出台相应的监管要求,国内外许多科技公司,譬如谷歌、微软、IBM、美团、微博、腾讯等,也都推出了相应的举措。 在这一背景下,腾讯研究院、腾讯天衍实验室、腾讯优图实验室、腾讯 AI Lab 等组成的跨学科研究团队,历时近一年,完成业内首份《可解释AI发展报告 2022——打开算法黑箱的理念与实践》,全面梳理可解释AI的概念、监管政策、发展趋势、行业实践,并提出未来发展建议。

在 1 月 11 日线上举办的腾讯科技向善创新周“透明可解释 AI 论坛”上,由腾讯研究院秘书长张钦坤、腾讯优图实验室人脸技术负责人丁守鸿进行了发布。

学界和业界专家普遍认为,《可解释AI发展报告 2022》非常必要,也非常及时。这份报告开了个好头,推动人工智能向着可解释这个极为重要的方向发展。

透明性与可解释性,连同公平性评价、安全考虑、人类 AI 协作、责任框架,都是 AI 领域的基本问题。我们需要找到一个平衡的可解释 AI 的路径,来打造可信、负责任 AI,确保科技向善。具体来说,在设计可解释性要求时,需要考虑可解释性要求和其他重要的伦理价值和目的(诸如公平、安全、隐私、网络安全等)之间的平衡。因为可解释性本身不是目的,而是实现其他目的的手段。所以在设计可解释性要求时,首先需要考虑想要实现什么目标,其次需要思考在特定情境下如何更好地匹配这些目标。 第一,立法和监管宜遵循基于风险的分级分类分场景治理思路,在鼓励科技创新、追求科技向善、维护社会公共利益之间找到平衡点。首先,披露 AI 算法模型的源代码是无效的方式,不仅无助于对 AI 算法模型的理解,反倒可能威胁数据隐私、商业秘密以及技术安全;其次,不宜不加区分应用场景与时空场合地要求对所有的算法决策结果进行解释;再次,侧重应用过程中的披露义务;最后,避免强制要求披露用来训练AI模型的数据集,这不仅不具有可操作性,而且容易与版权保护冲突,侵犯用户的数据隐私或违反合同义务。

第二,探索建立适应不同行业与场景的可解释性标准。具体可以从三个方面来着手:一是针对 AI 系统的一些示范性应用场景提供可解释性标准的指南,给行业和企业带来有益参考;二是发布 AI 可解释最佳实践做法案例集、负面做法都是值得尝试的,包括用以提供解释的有效的用户界面,面向专家和审计人员的记录机制(例如详细的性能特征,潜在用途,系统局限性等);三是创建一个说明不同级别的可解释性的图谱,这个图谱可被用来给不同行业与应用场景提供最小可接受的衡量标准。

第三,探索可解释的替代性机制,多举措共同实现可信、负责任 AI。虽然可解释性是完善 AI 技术的最优解之一,但并非所有的AI系统及其决策都可以解释。当 AI 系统过于复杂,导致难以满足可解释性要求,或是导致解释机制失灵、效果不乐观时,就要积极转变规制的思路,探索更多元化、实用化的技术路径。目前在技术上主张的是采取适当的替代性机制,如第三方标记反馈、用户申诉和人工审查、常规监测、审计等,这些替代性机制可以对 AI 算法的决策起到监督和保障作用。

第四,增强算法伦理素养,探索人机协同的智能范式。开发者和使用者是 AI 生态的核心参与者,需要提升他们的算法伦理素养。一方面,加强科技伦理教育,提升 AI 从业人员的算法伦理素养;另一方面,通过教育、新闻报道、揭秘等方式提高公众的算法素养,构建和谐的人机协同关系。

最后,引导、支持行业加强可解释 AI 研究与落地。由于 AI 技术的快速发展迭代,可解释 AI 的工作应主要由企业与行业主导,采取自愿性机制而非强制性认证。因为市场力量(market force)会激励可解释性与可复制性,会驱动可解释 AI 的发展进步。企业为维持自身的市场竞争力,会主动提高其 AI 相关产品服务的可解释程度。

长远来看,政府、社会、企业、行业、科研机构、用户等主体需要共同探索科学合理的可解释 AI 落地方案及相关的保障与防护机制,推动科技向善。

成为VIP会员查看完整内容
0
76

1954年,Alston S. Householder发表了《数值分析原理》,这是矩阵分解的第一个现代处理方法,它支持(块)LU分解——将矩阵分解为上三角矩阵和下三角矩阵的乘积。而现在,矩阵分解已经成为机器学习的核心技术,这在很大程度上是因为反向传播算法在拟合神经网络方面的发展。本调研的唯一目的是对数值线性代数和矩阵分析中的概念和数学工具进行一个完整的介绍,以便在后续章节中无缝地介绍矩阵分解技术及其应用。然而,我们清楚地认识到,我们无法涵盖所有关于矩阵分解的有用和有趣的结果,并且给出了这种讨论的范围的缺乏,例如,分离分析欧几里德空间、厄米特空间、希尔伯特空间和复域中的东西。我们建议读者参考线性代数领域的文献,以获得相关领域的更详细介绍。本综述主要是对矩阵分解方法的目的、意义,以及这些方法的起源和复杂性进行了总结,并阐明了它们的现代应用。最重要的是,本文为分解算法的大多数计算提供了改进的过程,这可能会降低它们所引起的复杂性。同样,这是一个基于分解的上下文,因此我们将在需要和必要时介绍相关的背景。在其他许多关于线性代数的教科书中,主要思想被讨论,而矩阵分解方法是“副产品”。然而,我们将重点放在分解方法上,而主要思想将作为分解方法的基本工具。数学的先决条件是线性代数的第一门课程。除了这个适中的背景,发展是独立的,提供了严格的证据。

https://www.zhuanzhi.ai/paper/a392240897ea63228b548b0570a315d4

矩阵分解全景

矩阵分解已经成为统计学的核心技术(Banerjee和Roy, 2014;、优化(Gill et al., 2021)、机器学习(Goodfellow et al., 2016);而深度学习在很大程度上是由于反向传播算法在拟合神经网络和低秩神经网络在高效深度学习中的发展。本调查的唯一目的是对数值线性代数和矩阵分析中的概念和数学工具进行一个完整的介绍,以便在后续章节中无缝地介绍矩阵分解技术及其应用。然而,我们清楚地认识到,我们无法涵盖所有关于矩阵分解的有用和有趣的结果,并且给出了这种讨论的范围的缺乏,例如,欧氏空间、厄米特空间和希尔伯特空间的分离分析。我们建议读者参考线性代数领域的文献,以获得相关领域的更详细介绍。一些优秀的例子包括(Householder, 2006; Trefethen and Bau III, 1997; Strang, 2009; Stewart, 2000; Gentle, 2007; Higham, 2002; Quarteroni et al., 2010; Golub and Van Loan, 2013; Beck, 2017; Gallier and Quaintance, 2017; Boyd and Vandenberghe, 2018; Strang, 2019; van de Geijn and Myers, 2020; Strang, 2021)。最重要的是,本综述将只涵盖矩阵分解方法存在性的紧凑证明。关于如何降低计算复杂度,在各种应用和例子中进行严格的讨论,为什么每种矩阵分解方法在实践中都很重要,以及张量分解的初步研究,请参见(Lu, 2021c)。

矩阵分解是将一个复杂的矩阵分解成其组成部分的一种方法,这些组成部分的形式更简单。全局矩阵计算方法的基本原则是,它不是业务矩阵的algorithmists解决特定的问题,但这是一个方法,可以简化更复杂的矩阵运算,可以进行分解的部分而不是原始矩阵本身。

矩阵分解算法可以分为许多类。尽管如此,六个类别占据了中心,我们在这里概括一下:

  1. 由高斯消去产生的因子分解包括LU分解和它的正定替代- Cholesky分解;
  2. 将矩阵的列或行正交化时得到的因式分解,使数据可以用标准正交基很好地解释; 3.分解矩阵的骨架,使列或行的一个子集可以在一个小的重构误差中表示整个数据,同时,矩阵的稀疏性和非负性保持原样;
  3. 化简为Hessenberg、三对角或双对角形式,结果是,矩阵的性质可以在这些化简矩阵中探索,如秩、特征值等;
  4. 因式分解是计算矩阵特征值的结果;
  5. 特别地,其余的可以被转换为一种特殊的分解,其中涉及到优化方法和高级思想,其中类别可能无法直接确定。
成为VIP会员查看完整内容
0
77

在过去的几年里,有不少讲深度学习的书籍。今天给小伙伴们推荐8本关于AI和机器学习的经典书籍,大部分都有完整版PDF下载。

这8本书从内容上看,可以分为四类:

机器和深度学习基础知识(适合初学者)

机器学习框架:Pytorch、Tensorflow 和 Keras

MLOP:云、生产和深度学习工程

深度学习理论

机器学习和深度学习基础

Andriy Burkov:The Hundred-Page Machine Learning Book

如果你是新手,看这本书就很适合。如果是老手,可能会觉得这本书很无聊,讲的都是你已经知道的东西。

前两章重点介绍机器学习公式、符号和关键术语。随后,Burkov 分析了最重要的 ML 算法,如回归、决策树、支持向量机和 k-最近邻。

第 4 章是关于梯度下降和学习过程的,第 5 章是最佳实践的集合;即特征工程、正则化、超参数调整等。第 6 章专门介绍神经网络。

之后,Burkov 讨论了如何使用上述方法解决特定问题。书中解释了常见的机器学习挑战、陷阱以及有针对性的解决方案。最后讲到了无监督、自监督和推荐系统等内容。

Meor Amer:A visual introduction to Deep Learning

这本书非常适合喜欢通过直观视觉学习深度学习的人。

总的来说,我们发现这本书很容易理解,因为书中的图和文本之间处于很好的平衡。上一本100多页的书相比,这本书涉及的数学更少,插图更多。

书中在解释反向传播时非常关注细节,不会让读者迷失在数学中。不可否认,反向传播真的很难教,作者Meor在这方面做得很好。此外,书中还对混淆矩阵和 F1 分数等性能指标进行了彻底分析。

但是,这本书让编程人员可能不大方便。这本书讲的是理论的基本部分,但把代码留给读者去尝试。由于这本书的介绍比较笼统,理论和编程实践之间可能会有差距。

相关资源:https://www.kdimensions.com/l/visualdl

机器学习框架:Pytorch、Tensorflow、Keras

Eli Stevens, Luca Antiga, and Thomas Viehmann:Deep Learning with PyTorch

无论你处于什么阶段,要学习Pytorch大概都少不了这本书。本书分为3个部分。

第 1 部分:前 3 章介绍了 PyTorch 和张量操作。第 4 章从字面上描述了如何获取任何数据、视频或一行文本,并将其表示为张量,其中涵盖了医学图像、表格数据和带具体示例的文本,对于初学者,这些内容非常有价值。

第5、6章涵盖了使用简单神经网络(如反向传播)学习过程的所有基础知识,重点是讲如何在Pytorch 中的动手写代码。

第 2 部分讲的是面向现实问题的模型,包括从 3D 图像数据中检测癌症和肺结节等。这部分内容会引导读者完成整个设计和思考过程。作为机器学习建模人员,读者可以掌握需要遵循的所有必要步骤。

虽然我在这里有点偏见,但我喜欢这本书的这一部分,老实说,我认为这里介绍的方法可以转移到解决新问题上。

第 3 部分介绍了从 Pytorch 导出的模型,包括执行推理或移动设备所需的步骤。对于想要学习如何优化训练后模型,并在硬件资源有限的嵌入式设备中使用的工程师来说,这部分内容会很有帮助。

François Chollet:Deep Learning with Python(2nd Edition)

这本书基于 Keras 框架讲述深度学习。本书的第 2 版包含大量新增内容,强烈建议阅读第二版。 前 4 章为新手基础知识,如张量运算、反向传播、基本的 Keras 模块,以及聚类和回归问题。

第 5 章分析了优化和泛化之间的权衡以及它与训练数据的关系。这一章节解释了为什么训练后的模型会通过逼近其数据的潜在流形实现泛化,并可以通过插值对新的输入做出高质量的预测。

第 6 章教你如何处理一个新的机器学习项目,包括设定切合实际的目标、收集数据、打破良好的基线和部署。第 7 章说明了如何更好地理解 Keras API 和回调。

第 8 章和第 9 章通过利用卷积神经网络进行图像分类和图像分割,全面概述了计算机视觉中的深度学习。第 10 章侧重于使用循环神经网络处理时间序列,第 11 章介绍了用于处理文本数据的Transformer架构。

第12章提出了各种生成模型来生成新的文本、图像。作者对生成对抗网络 (GAN) 、变分自动编码器 (VAE) 以及对潜在空间的解释和观点很有意思。

最后,本书涵盖了现实世界的高级概念,例如超参数调整、模型集成、混合精度训练、多 GPU 或多 TPU 训练等。

Laurence Moroney:AI and Machine Learning for Coders: A Programmer's Guide to Artificial Intelligence

如果你正在找有关 Tensorflow 的完整教程,这本书可能是最佳选择。Laurence Moroney 是 Google 的首席 AI 倡导者,在 Tensorflow 及其相关库方面拥有丰富的经验。

本书分为两部分。第一部分关于研究机器学习应用、如何利用 Tensorflow 来开发这些应用。包括计算机视觉、自然语言处理、时间序列分析和序列模型。在这部分可以学习如下内容:

如何使用 Tensorflow 构建 CNN 和 RNN;如何处理文本、图像和时间序列数据;如何利用 Tensorflow 数据集进行数据处理和探索。

第二部分是在实际应用中使用这些模型。读者将熟悉移动或 Web 应用程序上的模型部署。主要内容包括:

如何使用 Tensorflow Lite 在 Android 或 iOS 中嵌入模型;如何利用 Tensoflow.js;什么是 Tensorflow 服务、如何部署模型等。

这本书非常实用,有很多代码段和漂亮的可视化效果。

MLOP:云、生产和深度学习工程

Sergios Karagianakos:Deep learning in production

本书采用动手实践的方法来学习 MLOps。这本书的前提是,读者从一个深度学习模型开始,努力构建一个可扩展的 Web 应用程序。书中包含大量代码段和可视化效果,对于软件背景有限的机器学习研究人员和数据科学家来说,本书是个不错的资源。

书中各章节涉及机器学习生命周期的不同阶段。在讨论了设计阶段之后,读者将熟悉如何编写可维护的深度学习代码(如 OOP、单元测试和调试)的最佳实践。第 5 章是关于构建高效的数据管道,第 6 章涉及云中的模型训练以及各种分布式训练技术。

接着,本书讨论服务和部署技术,同时强调 Flask、uWSGI、Nginx 和 Docker 等工具。最后两章探讨了 MLOP。

更具体地说,是讨论如何使用 Kubernetes 扩展深度学习应用程序,如何使用 Tensorflow Extended 构建端到端pipeline,以及如何利用谷歌云和 Vertex AI。

相关资源:

https://github.com/The-AI-Summer/Deep-Learning-In-Production

Andriy Burkov:Machine learning engineering

这是本文推荐的 Burkov 的第二本书。作者在书中如何构建机器学习应用程序的设计模式和最佳实践方面建立了联系。

与前一本书类似,每一章都侧重于 ML 生命周期的一个单独阶段。从设计阶段开始描述了 ML 项目的挑战和优先级,然后讲到数据处理和特征工程,书中包括了常用行业术语的清晰解释,以及相应解决方案的常见陷阱。

训练和评估阶段分为三章,分析了如何使用正则化、超参数调节等技术提高模型的精度。还讲了关于处理分布偏移、模型校准、a/b 测试等问题。最后两章则讨论了部署策略、模型服务和维护。

PDF: https://drive.google.com/uc?export=download&id=1P0h-3e5Po-gIO-eb8dtYdyHkmzlDGLCS

深度学习理论

Ian Goodfellow, Yoshua Bengio, Aaron Courville:Deep Learning

最后,深度学习理论部分只有这一本书(花书)。

为什么?因为如果你开始一页一页地阅读这本书,你不太可能读完。

这本书更像是一本手册,可以对深度学习从数学的角度进行更深入的理解,获得更可靠的信息。

本书介绍了深度学习理论的广泛主题,建立了坚实的数学背景。书中涵盖的数学领域包括线性代数、概率论、信息论和数值计算。

此外本书还展示了多样化的深度学习技术,如正则化、优化算法、卷积网络、序列建模。涉及到的应用方向包括在线推荐系统、生物信息学和视频游戏等。

最后,本书中还讲了不少有见地的理论观点,如线性因子模型、自动编码器、表示学习、结构化概率模型、蒙特卡罗方法、分区函数、近似推理和深度生成模型等。

PDF: https://polarai.cn/265.html

参考资料: https://theaisummer.com/deep-learning-books-2022/

成为VIP会员查看完整内容
0
67

【主要内容】本书分4部分,同时用函数式和传统方法介绍主要的基本算法和数据结构,数据结构部分包括二叉树、红黑树、AVL树、Trie、Patricia、后缀树、B树、二叉堆、二项式堆、斐波那契堆、配对堆、队列、序列等;基本算法部分包括各种排序算法、序列搜索算法、字符串匹配算法(KMP等)、深度优先与广度优先搜索算法、贪心算法以及动态规划。本书适合软件开发人员、编程和算法爱好者,以及高校学生阅读参考。 地址: https://github.com/liuxinyu95/AlgoXY

本书特色 【本书特色】

  1. 七年磨一剑,亚马逊中国高级研发人员重磅力作
  2. 函数式算法与常规算法对照解读
  3. 伪代码与多语言实现并存,充分发挥语言特性
  4. 涵盖C/C++、Haskell、Python、Scheme等
  5. 理论与实例结合,轻松学习算法与数据结构
  6. 内含ACM竞赛趣题和传统趣题,发现算法的乐趣

【技术大咖推荐】

算法是每个计算机专业学生的理论课、基础课、必修课,也是区分计算机爱好者与专业计算机从业人员的重要课程。现在市面上五花八门的算法书也很多,但是能把算法结合实际应用生动讲解出来的却凤毛麟角。刘新宇的这本《算法新解》让人眼前一亮,简明的文字配上插图和不同编程语言的实现,让算法学习变得轻松有趣。并且,书中的例子都特别贴近应用,电子字典、用户输入匹配等小应用让人感觉算法无处不在。对于每个例子,这本书也会循序渐进给出更加优化的算法,并力求让读者掌握一种解决问题的思路。虽然我在计算专业领域研究开发多年,在读了刘新宇的《算法新解》以后仍然感觉受益匪浅。我也希望本书的每一位读者,无论是刚入门的学生、有多年编程经验的技术人员,还是从事理论研究的科技人员,都能有所收获。——顾峥博士,LinkedIn高级工程师

《算法新解》七年磨一剑,作者笔耕不辍,几年来常在TopLanguage邮件列表中放出让大家校对,在程序书泛滥的这个时代尤显难能可贵。书中包含大量插图和公式,又结合C++、Haskell、Python、Scheme等多种编程语言实现,命令式、函数式兼顾,准确细致地描述了大量基本算法和习题。——宋方睿,谷歌软件工程师、《Haskell趣学指南》译者

从入行第一天起,我们就被告诫“不要重复造轮子”,但是现成的“轮子”总有一天会无法达到要求。硬件提升总也赶不上数据量的增加,产品人员总能提出让人发疯的新需求,这时我们只有理解原理,才能改进甚至发明可用的新“轮子”。请不要忘记我们的好奇心。离开了功利的驱使,单纯的获取知识,会是另一种愉悦的精神体验。在阅读这本书时,这种体验将始终伴随着你。——陈维扬,小米软件工程师 作译者介绍 【作者介绍】 刘新宇
1999年和2001年分别获得清华大学自动化系学士和硕士学位,之后长期从事软件研发工作。他关注基本算法和数据结构,尤其是函数式算法,目前就职于亚马逊中国仓储和物流技术团队。其GitHub地址:https://github.com/liuxinyu95/AlgoXY

第一部分  树 第1章 二叉搜索树:数据结构中的“hello world” 第2章 插入排序的进化 第3章 并不复杂的红黑树 第4章 AVL树 第5章 基数树:Trie和Patricia 第6章 后缀树  第7章 B树 第二部分 堆 第8章 二叉堆 第9章 从吃葡萄到世界杯:选择排序的进化 第10章 二项式堆、斐波那契堆和配对堆 第三部分 队列和序列 第11章 并不简单的队列 第12章 序列:最后一块砖 第四部分 排序和搜索 第13章 分而治之:快速排序和归并排序 第14章 搜索 

成为VIP会员查看完整内容
0
65

Leiden大学Aske Plaat教授《深度强化学习》2022新书,值得关注!

深度强化学习近年来备受关注。在自动驾驶、游戏、分子重组和机器人等各种活动中,他们都取得了令人印象深刻的成果。在所有这些领域,计算机程序已经学会了解决困难的问题。他们学会了飞行模型直升机和表演特技动作,如回旋和翻滚。在某些应用中,他们甚至比最优秀的人类还要优秀,比如Atari、Go、扑克和星际争霸。深度强化学习探索复杂环境的方式提醒我们,孩子们是如何学习的,通过开玩笑地尝试东西,获得反馈,然后再尝试。计算机似乎真的拥有人类学习的各个方面; 这是人工智能梦想的核心。教育工作者并没有忽视研究方面的成功,大学已经开始开设这方面的课程。这本书的目的是提供深度强化学习领域的全面概述。这本书是为人工智能的研究生写的,并为希望更好地理解深度强化学习方法和他们的挑战的研究人员和实践者。我们假设学生具备本科水平的计算机科学和人工智能知识;本书的编程语言是Python。我们描述了深度强化学习的基础、算法和应用。我们将介绍已建立的无模型和基于模型的方法,它们构成了该领域的基础。发展很快,我们还涵盖了一些高级主题: 深度多智能体强化学习、深度层次强化学习和深度元学习。

https://deep-reinforcement-learning.net/

这本书的目的是呈现在一个单一的深度强化学习的最新见解,适合教学一个研究生水平一个学期的课程。除了涵盖最先进的算法,我们涵盖经典强化学习和深度学习的必要背景。我们还涵盖了自我游戏、多主体、层次和元学习方面的先进的、前瞻性的发展。

深度强化学习建立在深度监督学习和表格强化学习的基础上

在这些章节中有很多材料,既有基础的,也有先进的,有很多文献。一种选择是讲授一门关于书中所有主题的课程。另一种选择是慢一些、深入一些,在基础知识上花足够的时间,创建关于Chaps. 2-5的课程,以涵盖基本主题(基于值、基于策略和基于模型的学习),并创建关于Chaps. 6-9的单独课程,以涵盖多智能体、分层和元学习等更高级的主题。

在这一介绍性的章节之后,我们将继续学习第二章,在第二章中,我们将详细讨论表格(非深度)强化学习的基本概念。我们从马尔可夫决策过程开始,并详细讨论它们。第三章解释了基于深度价值的强化学习。本章涵盖了为寻找最优策略而设计的第一个深度算法。我们仍将在基于价值、无模型的范式中工作。在本章的最后,我们将分析一个自学如何玩上世纪80年代Atari电子游戏的玩家。下一章,第四章,讨论了一种不同的方法:基于深度策略的强化学习。下一章,第5章,介绍了基于深度模型的强化学习与学习模型,该方法首先建立环境的过渡模型,然后再建立策略。基于模型的强化学习有希望获得更高的样本效率,从而加快学习速度。

成为VIP会员查看完整内容
0
67

https://github.com/scutan90/DeepLearning-500-questions

深度学习500问——AI工程师面试宝典(博文视点出品),谈继勇 主编,郭子钊,李剑,佃松宜 副主编 著

内容简介

本书系统地描述了深度学习的基本理论算法及应用。全书共14章,第1-3章论述了数学基础、机器学习基础和深度学习基础;第4-7章介绍了一些经典网络及计算机视觉领域中常用的CNN、RNN、GAN等网络结构技术;第8-9章介绍了深度学习在计算机视觉领域的目标检测及图像分割两大应用;第10-14章介绍了计算机视觉领域主要的优化方法及思路等,包括迁移学习、网络架构及训练、网络优化技巧、超参数调整及模型的压缩和加速等。本书凝聚了众多一线科研人员及工程师的经验,旨在培养读者发现问题、解决问题、扩展问题的能力。

本书内容取材于编者在日常学习过程中总结的知识点及各大公司常见的笔试、面试题。本书可为高等院校计算机科学、信息科学、人工智能、控制科学与工程、电子科学与技术等领域的研究及教学人员提供参考,也可为相关专业本科生及研究生提供思考方向,还可为深度学习及计算机视觉领域的初、中级研究人员和工程技术人员提供参考,尤其适合需要查漏补缺的应聘者及提供相关岗位的面试官阅读。

作者简介

谈继勇 主编

南方科技大学和哈尔滨工业大学联合培养博士(在读),现任瀚维智能医疗技术总监,深圳工信局专家库专家,兼任南方科技大学、四川大学研究生企业导师,南方科技大学和瀚维智能医疗联合实验室副主任,北京探工所特聘技术专家,曾先后在中科院信工所、香港中文大学(深圳)、FOXCONN机器人与人工智能实验室、顺丰科技等单位任职。主要专注于智能感知与控制、实时智能与计算机视觉方向的研究,主持/主研国家自然科学基金、省重点研发计划、深圳战略性新兴产业计划等项目20余项,发表SCI/EI论文20余篇,申请发明专利40余项,获全国发明金奖。

郭子钊 副主编

四川大学计算机科学专业博士,硕士毕业于四川大学自动化系,主要从事AI芯片、深度学习、行为检测识别、人脸检测识别等相关研究工作。

李剑 副主编

同济大学计算机科学专业博士,浙江农林大学副教授、硕士生导师,主要从事推荐系统、排序学习、凸优化等机器学习领域的科研和教学工作,发表SCI论文10余篇,曾获浙江省科技进步二等奖等多项省部级奖项。

佃松宜 副主编

日本东北大学博士,四川大学电气工程学院教授、自动化系系主任,四川省信息与自动化技术重点实验室主任。主要专注于先进控制理论与人工智能算法研究、嵌入式计算与实时智能系统的研究与开发、机器人与智能装备的智能感知与控制技术的研究、工业测控与智能物联的研究。近5年来主持包括国家重点研发计划、基金、国网总部项目等各类科研项目近30项,累计总经费近2200万元;发表论文100多篇,其中SCI/EI检索近40篇,ESI高引论文1篇。参与编撰专著3部(其中英文专著1部),参编国家九五规划教材1部。

王晋东 特邀编委

中科院计算所博士,微软亚洲研究院机器学习研究员,主要从事迁移学习和机器学习方向的研究工作,在IJCAI、CVPR、ICDM、UbiComp、ACMMM、PERCOM、IJCNN、PRICAI、IEEE TNNLS、NEUNET、PRL、PMCJ、IMWUT、IJMLC、ICME、ACM TIST等国际权威期刊和会议上发表论文20余篇,多次获得“最佳论文”奖。作品有《迁移学习简明手册》等。

王超锋

上海大学硕士,百度计算机视觉算法工程师,主研图像处理,深度学习等方向。曾多次在国内外各类知名计算机视觉挑战赛中获得优异成绩。

郭晓锋

中国科学院硕士,爱奇艺算法工程师,主要从事图像处理、深度学习等方向的研究,曾获“2017华为软件精英挑战赛”复赛第6名。

黄伟

华南理工大学硕士,顺丰科技机器人算法工程师,主要从事计算机视觉和自然语言处理方向的研究。曾在相关领域国际期刊、会议上发表论文,并在相关竞赛中获得优异成绩。

陈方杰(Amusi)

上海大学硕士,CVer(计算机视觉知识分享和学习交流平台)创始人。

李元伟

国防科技大学硕士,深圳瀚维智能医疗科技公司高级算法工程师,南方科技大学和瀚维智能医疗联合实验室委员,主要从事机器视觉、图像处理及深度学习方向的研究工作,参编普通高等教育十三五规划教材《图像通信基础》,在IEEE TCSVT、COGN COMPUT等发表学术论文多篇,曾获湖南省/全军优秀硕士论文。

陈琳

北京航空航天大学博士(在读),研究方向为无人机智能控制与决策、仿生智能计算。

成为VIP会员查看完整内容
0
61

转载机器之心 编辑:蛋酱 这本书曾深刻地影响了一代脑、认知、计算机视觉领域的学者。

四十多年前,一本视觉计算理论的经典著作《Vision》正式出版。

这本书的作者大卫 · 马尔(David Courtnay Marr)在计算机领域几乎无人不知。他是计算神经科学领域的创始人之一,曾任麻省理工学院心理学教授。为了纪念其贡献,计算机领域顶会 ICCV 特别设置了「马尔奖」,该奖项被看作是计算机视觉研究方面的最高荣誉之一。

马尔在 1980 年去世,一生的研究心血集结于遗著《Vision》中。在这本书中,马尔描述了理解视觉感知的通用框架,并介绍了关于如何研究和理解大脑及其功能等更广泛的问题。

长期以来, 马尔的创造力、智力以及整合来自神经科学、心理学和计算的见解和数据的能力,影响了来自大脑和认知科学领域的众多研究人员。

这本书厘清了计算理论、算法、实现三个研究层次,不仅对神经科学和认知科学都产生了深远影响,也对计算机视觉在 1980—1990 年代的蓬勃发展提供了指导思想。

马尔视觉计算理论的提出,标志着计算机视觉成为了一门独立的学科。《Vision》影响了一代大脑和认知科学家,激励了许多人进入该领域。

北京通用人工智能研究院院长,北京大学、清华大学讲席教授朱松纯表示:「我在 1989 年作为一名大三学生有幸读到这本书的第一个中译本,从而走上了计算机视觉的科研道路。」

粤港澳大湾区数字经济研究院理事长,美国国家工程院外籍院士沈向洋表示:「我看过的第一本计算机视觉英文书就是 David Marr 的 Vision。」

马尔关注的低层视觉和三维结构的重建在很长一段时间内主导了计算机视觉的研究,而低层视觉和三维重建确实是人类视觉中不可或缺的部分。除了计算理论的进展,计算机视觉领域过去十年的爆发式进展还应当归功于算法(以卷积神经网络和反向传播算法为代表)、硬件实现(以 GPU 为代表)和数据(以 ImageNet 为代表)这几个层次的进展。其中,计算理论、算法和实现三者与马尔的三个理解层次完全符合。

在近年深度学习的热潮之中,掌握本书介绍的视觉计算理论,对于在人工智能和计算机视觉领域内开展进一步探索是至关重要的。

现在,这本经典著作的中文版已经正式面世!

本书面向心理学、神经科学、计算机科学、人工智能、计算机视觉等相关专业的研究人员、 研究生及高年级本科生等,可供学习使用或作为研究参考。

中文版《视觉》的译者是清华姚班校友、斯坦福大学计算机科学系助理教授吴佳俊。

成为VIP会员查看完整内容
1
57

本书的重点是为学生提供对几何的洞察力,帮助他们从一个统一的角度理解深度学习。在这里,我们将深度学习解释为一种可以想象的信号处理技术的最终形式,而不是将其描述为一种实现技术,这在许多现有的深度学习书籍中都是如此。

为了支持这一观点,本文综述了经典的内核机器学习方法,并解释了它们的优势和局限性。从生物学和算法的角度详细解释了深度神经网络的基本构建模块,介绍了注意力、归一化、Transformer、BERT、GPT-3等最新工具。这里的重点也在于,在这些启发式方法中,直觉背后有一个重要的、优雅的几何结构,使我们能够进行系统的理解。为理解高维几何中深度学习的工作机制提供了统一的几何分析方法。然后,从统一的几何角度描述了GAN、VAE、归一化流、最优运输等不同形式的生成模型,表明它们实际上来自于统计距离最小化问题。

因为这本书包含了从实践和理论的观点的最新信息,它可以作为高等院校的高级深度学习教材或作为一个参考来源的研究人员有兴趣获得最新的深度学习算法及其潜在原理。此外,这本书已经为工程和数学学生编写了代码共享课程,因此很多内容是跨学科的,将吸引来自两个学科的学生。

成为VIP会员查看完整内容
0
57

【导读】Pytorch官网Pytorch.org最近发布了一本开源书深度学习《Deep Learning with PyTorch》,共522页pdf,限时开放,涵盖了深度学习和Pytorch库的介绍,预训练网络,张量,学习机制,数据神经网络学习。书里面有详实的代码,是入门学习Pytorch深度学习必备器物,不得不看!

网址: https://pytorch.org/deep-learning-with-pytorch

《PyTorch 深度学习》旨在指导人们开始自己的 AI/机器学习开发之路,全书总共有15 个章节

深度学习与PyTorch教你创建神经网络和深度学习系统与PyTorch。这本实用的书将快速引导您从零开始构建一个真实世界的示例:一个肿瘤图像分类器。一路上,它涵盖了整个DL管道的最佳实践,包括PyTorch张量API、用Python加载数据、监控培训和可视化结果。在涵盖了基础知识之后,本书将带您进入一个更大的项目之旅。这本书的核心是一个为癌症检测而设计的神经网络。您将发现用有限的输入训练网络的方法,并开始处理数据以获得一些结果。您将筛选不可靠的初始结果,并专注于如何诊断和修复神经网络中的问题。最后,您将了解通过使用增强数据进行训练、改进模型体系结构以及执行其他微调来改善结果的方法。

使用PyTorch的深度学习提供了一个详细的、实际操作的介绍,本书介绍如何使用PyTorch构建和训练神经网络,PyTorch是一个流行的开源机器学习框架。这本书包括:

成为VIP会员查看完整内容
0
55

来源:商汤智能产业研究院

  据彭博资讯预测,到2024年,元宇宙的市场规模将达到8000亿美元。普华永道预测,到2030年元宇宙的市场规模将达到1.5万亿美元。近日,中国世界青年峰会与商汤科技、增强现实技术产业联盟(CARA)联合发布了《元宇宙“破壁人”:做虚实融合世界的赋能者》。

  虽然业内对元宇宙并没有一个统一的定义,但普遍认为元宇宙应同时具备“沉浸感、开放性、随时随地,以及经济系统”四大基础共性。

沉浸感:元宇宙世界与真实世界一样是三维立体的,同时在虚拟世界中的体验应逼近与真实世界的感官体验。

开放性:开放既指技术的开源又指平台的开放。元宇宙通过制定“标准”和“协议”将代码进行不同程度的封装和模块化,不同需求的用户都可以在元宇宙进行自主创新和创造,构建原创的虚拟世界,不断拓展元宇宙边界。同时,元宇宙的基础仍是互联网,而互联网的本质是连接和开放。彼此独立、不兼容的虚拟世界,无法带给人们极致的体验。

随时随地:用户可以使用任何设备登录元宇宙,随时随地沉浸其中。同时,元宇宙必须能支持大规模同时在线。

经济系统:元宇宙应具有独立的经济系统和运行规则,人们可以在其中拥有属于自己的虚拟身份,并进行内容创造、社交娱乐、价值交换等活动。毫无疑问,经济系统的闭环运行是驱动和保障元宇宙不断变化和发展的动力引擎。

  “三张图”认识元宇宙

第一张图:解构元宇宙

元宇宙必须要建立在先进的数字基础设施之上

  元宇宙的“沉浸感”“随时随地”特性不仅对网络传输及计算能力提出很高的要求——通过低延时网络连接,以及云边端协同计算,降低对终端硬件的性能要求,从而支撑逼真的感官体验和大规模用户同时在线需求,提升元宇宙的可进入性和沉浸感;人工智能贯穿元宇宙内容生产、分发到应用全过程,加速内容生产、增强内容呈现,以及提升内容分发和终端应用效率;区块链技术支撑元宇宙经济系统的有序运转,保障数字资产和数字身份安全,同时协助系统规则的透明执行。

通过构建内容创设生态,为元宇宙内容生产打造高效的生产力工具,重构并激活生产关系。

  内容创设生态既包括数据层、技术层及工具层的软件系统,这是构建与生成元宇宙数字内容的核心引擎;同时也包括开源开放、社群建设与运营等生态培育体系的搭建,通过创造生态效应进而重构并激活生产关系。

通过打造内容应用生态,为终端用户创造最大价值

  相较传统互联网,元宇宙更强调内容的应用价值,即帮助终端用户解决实际问题,要与用户的真实需求挂上钩,既包括提升用户体验,也包括提高应用侧效率,形成价值闭环。内容应用生态包含两大部分,一是生成的海量内容如何精准触达用户,满足用户需求;二是通过应用场景的感知和交互,形成实时反馈系统,帮助生产侧提升效率、持续创新和改进,为用户创造最大价值。

第二张图:三大核心抓手

应用抓手:反哺实体经济发展是目标

  元宇宙不只是独立且平行的虚拟世界,它的意义和价值还在于与真实世界的连接和交互,并赋能实体经济的发展,提高人们的生活体验。元宇宙作为信息革命的新发展阶段,它的使命便是在此:利用信息技术的升级和融合,不断拓展物理世界向虚拟世界映射的广度和深度,促进数据生产要素协同,提升实体经济的“做功”效率,改善人们的生活体验

技术抓手:AI驱动是关键

  首先,人工智能是元宇宙内容生成的强赋能者。其次,人工智能是虚实世界间的“破壁人”。第三,人工智能提升人机交互体验。

模式抓手:平台赋能是基础

  无论是AI模型生产、智能计算、网络连接等基础设施建设,还是元宇宙相关技术研发和攻关都需要投入大量的资金和人力资源,通过集中式建设、平台化赋能能够大幅降低使用者的边际成本,提高元宇宙生产效率。

第三张图:六大核心元素

  元宇宙的六大核心元素,包括三大基本元素“人”、“物”、“场”,以及三大关系元素“创造”、“连接”和“共生”。“人”、“物”、“场”是构成元宇宙生态的基本元素,由“创造”元素所定义,由“连接”元素所驱动,由“共生”元素所重塑,换言之:

“创造”元素通过代码的方式定义元宇宙中“人”、“物”、“场”的基本形态,创造出一个平行于真实世界的虚拟数字空间,并通过VR/AR等交互技术呈现在人们眼前。

“连接”元素通过算法的方式不仅可以激活“人”、“物”、“场”之间的关系,驱动元宇宙智能化发展,同时还可打破真实世界与虚拟世界的“次元壁”,进一步扩展元宇宙的内涵,从独立平行的娱乐元宇宙向虚实融合的产业元宇宙、城市元宇宙方向拓展。

“共生”元素通过生态的方式扩张了元宇宙世界的边界。“创造”与“连接”形成的元宇宙世界是一个庞大的、复杂的巨型系统,不由一家企业所垄断,而是由无数的创作主体和关联组织协同创作的结晶。与传统的链式价值传递不同,在元宇宙世界中,不同主体之间以共创、共享、共生的方式紧密协同,从而形成开放的、有机的生态系统。

  总体来说,具有“人”、“物”、“场”的创造和连接能力,通过共生方式构建元宇宙开放生态,同时以AI驱动为技术抓手,以平台化模式赋能经济高质量发展、提升人民生活美好生活体验,将是元宇宙产业发展之关键。

  新变革引领新趋势

趋势一:创作升级

  随着人工智能的发展,数字内容创作智能化水平将会不断提升。AIGC(AI Generated Content),即由人工智能创作或生成内容,将会成为产业未来主要生产力之一。低代码、零代码、自动化生成内容将是主要趋势,将大幅降低创作门槛及创作成本。原来只有行业专家才能使用的创作工具,未来每个人都能轻松使用,创作市场将从利基走向大众。

趋势二:计算升级

  算力是元宇宙发展的基石。元宇宙通过人工智能、AR/VR、物联网、区块链等核心技术的融合赋能产业、治理、科研三大板块,促进智能经济的高质量发展,而这些技术的应用将成为未来算力发展的核心驱动力。不仅带动对计算资源的巨大需求,同时,也将带来计算部署方式的结构性变革,因此,围绕智能(异构)计算(简称AIDC)的“云-边-端”协同模式将成为元宇宙计算升级的主要趋势。

趋势三:智能升级

  元宇宙将是一个复杂巨系统,不仅表现为超高并发的数据体量,由于信息维度的升级,信息复杂度也将呈现指数级上升,远远超出人脑计算极限。“基模型(Foundation Model)”被认为是解决复杂巨系统问题的重要途径之一。数字化广度和深度带来了复杂度的几何增加,各国在基模型上都投入了大量的资金和研发力量,BERT、DALL-E、GPT-3等基模型相继出现,AI科研正在经历一场范式改变,基模型竞争时代到来。

趋势四:体验升级

  随着信息技术的迭代,我们的五感(视觉、听觉、触觉、味觉、感觉)将被逐一的数字化,信息的维度也在逐步增加,使得数字内容不断的逼近现实的感官体验,更具有真实沉浸感;同时,人机交互也从间接交互(主要通过按钮、鼠标键盘等控制机器),到AR/VR媒介时代,我们可以通过手势、声音、体感(包括肢体运动、眼球动作和面部表情等)与机器进行更自然的直接交互;随着脑机接口技术的成熟,我们甚至可以直接用脑电波控制机器。总体而言,我们的体验会越来越好,也会越来越趋近真实。

趋势五:商业升级

  在元宇宙的发展趋势下,我们的社交、我们的商务,我们的信息获取方式,以及内容生产和消费都将会涌现出全新的创新模式假设一:“数字人助手”或将代替APP成为人们获取信息和服务的超级入口。假设二:场景化社交将成为元宇宙社交的主要形态,并在其上衍生出巨大的商业价值。假设三:沉浸式商业将是meta-commerce的主要形态。

趋势六:治理升级

  依托元宇宙技术内涵构建城市治理新范式,将改变城市规划、建设、管理和服务的底层逻辑,为城市治理注入新活力。通过打通并融合包括CIM、各大公共服务系统,城市物联感知等多源数据,打造城市数字复刻体,实现全域感知、精准映射、虚实交互和全局洞察。

趋势七:文明升级

  技术的发展是文明进化的动力。我们正处于从工业文明迈入数字文明的重要关口,新基建的广泛部署推动了信息技术的快速发展、数据要素的深度融合。这一进程不仅带来数字经济的蓬勃发展,也将推动人类文明迈向新台阶。因此,从技术角度看,元宇宙文明将是人类文明新的发展形态。

  技术的发展也要坚守伦理道德的底线。在新的文明发展阶段,我们要提出新的技术伦理,探索技术、个人、社会三者之间的平衡。不仅要做到技术本身的可用、可靠、可知、可控,让人们可以去信任它、使用它;同时还应做到技术的应用能为社会带来进步,为人类发展谋求福祉。它所创造的文明应是多样的、平等的、开放的和包容兼备的,符合人类命运共同体的价值理念。

成为VIP会员查看完整内容
0
56

 新冠肺炎疫情持续延宕,世界经济复苏震荡不定,与此同时,数字科技正前所未有地渗透到经济社会的方 方面面,一个更加智能泛在、虚实共生的时空正在全面展开。

  腾讯于2020年发起了《数字科技前沿应用趋势》研究项目,其中的很多预判已成为行业热点,人工智能等数字技术在医疗、自动驾驶、安全等领域的应用深入开展,沉浸式媒体、数字虚拟人、虚实集成打开了全真数字世界的大门。

  新一年,腾讯继续聚焦近未来有望落地的科技趋势,凝练出三大类、十个重点方向:云原生、人工智能、未来网络、云安全、量子计算等领域的新变革有望重塑信息基础设施;空天科技、能源互联网、复杂任务服务机器人与信息技术的融合正迸发出强劲的跨界创新势能;万物孪生、扩展现实将进一步连通虚实世界,为人们创造全新的体验和数字生产力,让虚拟世界更真实、让真实世界更丰富。

  趋势1:云原生加速IT体系迈进全云时代

  云原生是一种IT技术方式,使组织能够在云计算环境中构建和运行可扩展的应用。随着数字化的普及和深入,海量数据实时、灵活处理的情况日益普遍,传统IT架构越来越难以适应。云原生通过容器、服务网格、微服务、不可变基础设施和声明式API等关键技术,使松散耦合的系统具有弹性、可管理性和可观察性,能够更低成本、高效地调用各类云计算资源向业务交付应用,推动IT体系向全面云化的新阶段演进。

  首先,无服务器计算(Serverless)兴起,正在成为云原生加速发展的新路径。其次,分布式云将有效拓展云原生业务构建的物理边界,大幅减轻用户多云管理负担。最后,异构计算促进软硬件相互定义和融合发展,推动云原生基础设施性能持续突破瓶颈。

  虽然云原生已经成为主流探索方向,但涉及IT体系的整体变革仍面临不少挑战。主要有:一是云原生资源的多变性影响IT体系全链条的可观测性。二是云原生实践过程中迁移和管理复杂度较高。三是数据隐私和安全风险也是影响云原生发展的关键问题。

  未来,伴随着云原生操作系统的持续发展和完善,在多云、混合云场景下提供一致的产品服务和体验将成为业界共同努力的方向。传统的公有云边界有望突破,公有云的产品将“延伸”到任何用户需要的环境中,不同的物理位置均可提供云原生服务,加速数字业务云上的闭环。

  趋势2:量子计算NISQ时期仍将持续

  2021年是量子计算界备受瞩目的一年,中国连续两次实现了量子计算优越性,国际上量子计算企业获得风险投资首次突破10亿美元,量子比特数量实现较大规模增长,国内“祖冲之二号”量子比特数量已达66个,国际上推出了127量子比特超导量子处理器以及基于中性原子的256量子比特模拟器,软件开发和算法应用也在加紧实验探索中。

  当前,量子计算处于NISQ(含噪声中等规模量子)时代。产业界均在努力增加量子比特数量,提升单个量子比特的质量。

  2022年,将是量子计算继续积蓄力量之年。随着100+量子比特设备的推出,需要开发适用于更大规模量子计算机的软硬件相关技术,为未来通用量子计算机的实现打好基础。

  硬件方面,主流量子计算硬件技术(如超导、离子阱、光量子等)将并行发展,按照一些国际大公司公布的路线图,两到三年内,量子计算有望突破1000量子比特。软件算法方面,预计在2023年前后,量子计算有希望开始在若干领域(例如组合优化、量子化学、机器学习等)实现具有应用价值的专用量子模拟机。

  趋势3:人工智能迈向普适化和工业化新阶段

  近年来,人工智能已经在语音、图像、视频和自然语言处理等领域取得了长足的进展,并在一些特定的任务上超越了人的能力,尤其是一些突破性的成果,诸如Alpha Fold2破解困扰生物学界50多年的蛋白质结构预测难题,让人们再次惊叹和期待人工智能改变世界的无限可能。在重点应用方面,融合了语音识别、语音合成、自然语言处理、多模态建模、知识图谱、3D视觉技术和语音驱动面部动画的数字虚拟人技术成为热点,从虚拟客服、虚拟主播、虚拟偶像到各行业的数字员工,数字人正在以更快的速度融入到经济社会中,推动虚拟世界和现实世界的进一步融合。作为人工智能集大成者的自动驾驶持续火热,传统车厂、造车新势力和跨界者纷纷加速布局,在国内数十个城市全面展开了自动驾驶的测试和运营。

  人工智能的大规模应用仍然面临技术瓶颈,如依赖大量标注数据、模型泛化能力弱、鲁棒性较弱、研发效率低、部分行业数据量少等问题,限制了产业的进一步发展。但这些问题随着超大模型、一站式机器学习平台、小样本学习等技术的加速演进,有望得到解决,进一步推动人工智能向更加普适化和工业化的方向迈进。

  超大模型将加速通用人工智能进程,推动算法普适化。小样本学习技术破解数据缺乏难题,助力更多行业智能化。一站式机器学习平台有望成为人工智能研发基础设施,推动模型工业化。人工智能在产业落地中,还面临一些模型本身的问题和外部安全风险。

  趋势4:云网融合构建“连接升维”

  得益于信息通信技术的快速发展,互联网从发端时主要聚焦在科研逐步向消费型网络发展,目前正向生产型网络不断演进,未来网络将从信息传输向产业服务转变,网络将更加智能化、便捷化。

  通感一体塑造全真全感互联。从1G到5G时代,通信能力和感知能力是相互独立的,进入后5G时代后,随着通信频谱向毫米波、太赫兹、可见光扩展,与传统的感知频谱重合,使得通信与感知融合成为了可能。

  AI构建智慧化网络。将人工智能与无线通信相结合,通过构建新型无线AI网络架构和协议,可以显著提升网络智能,促进感知、通信与计算的深度融合。AI网络提供的低碳节能的开放生态,将持续推动周边产业的发展,已成为行业公认的发展趋势。

  空天地一体化组网。空天地一体化指的是天基(高轨/中轨/低轨卫星)、空基(临空/高空/低空飞行器)等网络与地基(蜂窝/WiFi/有线)网络的深度融合,在系统层面实现地面与非地面网络的全面一体化,在协议、网络、业务、终端等方面实现深度融合。

  趋势5:疫后新需求按下云原生安全发展快进键

  企业数字化转型与业务上云成为产业互联网发展的重要趋势,传统企业保护边界逐渐被瓦解,平台、业务、用户、终端呈现出多样化趋势,边界消融导致攻击面逐渐增多,带来更多安全风险。如何构建企业的“主动免疫”体系,成为业内关注的焦点。

  零信任重塑安全新边界。零信任作为一种基于动态身份认证和授权的安全理念框架,对访问控制进行颠覆式创新,引导安全体系架构从以“网络为中心”向“身份为中心”进行演化升级。

  云上安全防御将成为抵御勒索攻击最优解。勒索攻击已经成为全球经济面临的严重威胁之一,企业遭受攻击不再是“会不会”的问题,而是“何时”的问题,勒索攻击俨然成为产业互联网时代的“流行病”。从技术层面来讲,可通过聚焦零信任、威胁检测等安全前沿技术,保障云平台和云上业务安全。云原生安全产品由于自适应、全生命周期防护的显著优势,是兼顾成本、效率及安全的云上安全防御“最优解”。

  扩展威胁检测与响应(Extended Detectionand Response,简称“XDR”)有望提升组织整体网络安全风险响应速度。以大数据分析、自动化技术为核心,融合多种威胁检测能力的XDR技术将有效应对利用人工智能技术发起的自动攻击。在检测方面,XDR将帮助用户对资产、漏洞、威胁、事件进行排查,从而快速了解网络的暴露面和重点攻击手法,提前针对性制定防御策略。

  趋势6:多路径并行演进推动万物孪生

  数字孪生成为理解和优化物理实体的中间件。数字孪生具备实时感知、虚实映射、人机交互等多种能力,可以帮助人们通过对虚拟空间的观察和交互,去理解和优化真实的物理空间。

  行业建模工具通过融合多类技术向实时化、显性化和友好交互方向演进。一是通过融合高性能计算、5G传输、云渲染等技术,从计算、传输、呈现多个角度全面提升实时性。二是借助3D展示、模型轻量化等技术实现显性化表达,降低理解门槛。三是通过结合AR/VR提升交互友好性性,工业、城市、医疗等领域的建模工具均加速丰富接口和数据格式,以适配虚拟现实平台,实现数字孪生和虚拟现实的融合应用。

  游戏引擎为行业数字孪生构建提供新型路径。一方面游戏引擎凭借其模拟逼真、渲染实时、开发便捷的特点成为当下产业界实践数字孪生平台的路径;另一方面,游戏引擎逐步融合行业知识和前沿技术来提升数字孪生的应用能力。

  趋势7:硬件迭代驱动扩展现实(XR)产业拐点到来

  VR光学、显示、定位和交互等硬件技术发展方向和思路比较明确,超短焦的光学设计、Micro-LED、更轻便的交互控制器将是未来方向。

图片

  VR硬件发展路径基本明朗。VR头显将进一步轻薄化,光学方案将在保障显示效果前提下,由目前主流的菲涅尔透镜向更轻薄的超短焦技术路线发展,产品将更加轻薄,重量将进一步降低,佩戴体验将更加友好。

  和VR相比,AR硬件仍在成熟过程中,短时间内多种技术路线将会并存。光学和显示是AR产品的核心。

  以手机为显示终端的VR360或全景视频发展迅速。目前VR360已经在看房、文旅、会展等场景中得到大范围的应用。一些互联网视频网站和生活服务网站,也将其作为重要流量入口,并融入到现有业务和商业逻辑中。

  趋势8:多模态融合驱动复杂任务服务机器人进入家庭生活

  家庭是典型的非标场景,对机器人技术成熟度要求远高于工业和商用,且可为机器人支付的成本相对有限。

  感知、理解、控制是智能机器人的三个核心模块。未来3-5年,多模态融合感知、非结构化场景AI分析与柔性本体技术将取得突破,助推可执行复杂任务的智能服务机器人进入家庭生活。多模态融合感知技术的普遍应用,提升了机器人环境感知能力,加速了服务机器人适配家庭需求的进程。

  展望未来,随着物联感知设备价格亲民化、减速机国产化、开发者生态的不断完善等,更稳定、更便宜的消费级机器人变成可能。但机器人成为家庭生活的智能执行体和标配“成员”,仍需经历更长的发展期。

  趋势9:双碳目标倒逼能源互联网加快发展

  随着新能源技术与信息技术的发展和成熟,能源互联网成为双碳背景下能源结构转型的重要解决方案。可以预见,未来电网的源、荷、储三端将会发生重大变化:在源端,波动的清洁能源将大规模、高比例地接入电网;在负荷侧,大量用户将迎来参与发电和储能的“新身份”;在储能方面,大量电化学储能技术的发展,尤其是氢储能技术,将大大降低能量的存储与运输成本。这些变化将给能源互联网发展带来重大变革:在能量层,建设多能互补的综合能源系统,以匹配多变的能源供需;在信息层,通过建设电力-交通耦合网络、电力-算力耦合网络等,实现智慧的能源管理和控制;在价值层,能源互联网的建设需要探索能源共享经济,引导全民参与,实现共建共享共赢。

  源、荷、储三端的快速变化,带来了对“网”端一体化、数字化的改造、优化需求,互联网技术与原有能源系统耦合的不断加深,正在加速能源互联网技术的成熟和落地。基于构建绿色低碳、安全高效和开放共享的能源生态的目标,三大技术趋势正在加速形成:能量层,绿色、低碳的综合能源网络将日益重要。

  能源互联网是一个复杂巨系统,双碳目标下,其主体不应再局限于两大电网和传统新能源公司,而是将有更多互联网公司、数字化公司、金融公司、综合能源服务公司参与其中,通过构建“清洁低碳、安全高效、开放共享”的新型能源生态系统,共同探索双碳目标的快捷安全达成路径。

  趋势10:星地协同智能化开启“大航天”时代

  太空在经济、社会、军事等领域发挥着举足轻重的地位,成为新一轮国家竞争的制高点。航天智能化水平快速提升,成为技术创新与突破的新平台。

  星地智能化协同,提升卫星海量数据智能化处理能力。一方面,为了应对海量数据和传统卫星较弱的数据处理能力之间的矛盾,卫星需要通过AI算法对海量数据进行预处理。另一方面将地面数据中心“发射到太空”。卫星上预处理完的有效数据传输到地面数据中心,数据中心具备的AI算法和大数据处理能力可以对接收的数据进行二次计算,实现分析处理快速响应。

  人工智能技术助力卫星遥感数据融入千行百业。利用计算机视觉技术将是卫星遥感数据处理的重要趋势,通过深度学习技术可以在确保成果质量的基础上,大幅提升效率,正融入不同应用场景。

  航天商业化将开启大众服务窗口。航天的产品设计不再追求宇航级质量和要求,更加注重现有技术的不断迭代和工业化量产。太空旅行、空间站商业化、太空电影拍摄逐步向大众市场普及。

成为VIP会员查看完整内容
1
52

近日,清华大学沈阳教授团队发布了《元宇宙发展研究报告2.0版》,总计205页。报告基于《元宇宙发展研究报告1.0版》,从元宇宙的缘起、概念与属性、技术与产业链、场景应用、风险点及治理、热点七问、远未来展望等七个部分对元宇宙发展进行了深入的研究与分析。

成为VIP会员查看完整内容
0
51

金融机构数字化转型正在如火如荼地进行。人工智能作为数字化转型的重要手段之一,已经开始全方位融合赋能金融行业的业务领域和场景应用,持续助力金融行业的智能化转型和升级。

2022年1月14日,中国信息通信研究院(以下简称“中国信通院”)召开“可信AI成果发布会”。会上发布了《金融人工智能研究报告(2022年)》。

报告从金融行业“五大业务链”出发,深度剖析人工智能各类细分技术在金融领域的应用及“九大应用场景”,比较银行、保险和证券“三大细分领域”的技术成熟度和采纳度,力求展现目前“金融人工智能技术应用全景图”。编写过程中得到了中国工商银行、中国农业银行、上海浦东发展银行、中原银行、中泰证券、阳光保险集团、中国人寿财产保险、中国平安保险(集团)等金融机构的大力支持。

成为VIP会员查看完整内容
0
48

这是一个动手操作的初学者指南,它能让你快速地构建游戏,所有的东西都有很棒的Unity引擎!您将快速通过基础知识,并使用您现有的编码技能来创建2D、3D和AR/VR游戏。

在Unity In Action,第三版,你将学习如何: 创造能够奔跑、跳跃和撞到东西的角色 制作3D第一人称射击游戏和第三人称动作游戏 构建2D卡牌游戏和横向卷轴平台游戏 带有AI的脚本敌人 通过导入模型和图像来改善游戏图像 为游戏设计直观的用户界面 播放音乐和空间感知音效 将你的游戏连接到互联网上进行在线游戏 将你的游戏部署到桌面、手机和网页上

成千上万的新游戏开发者选择了Joe Hocking的《Unity in Action》作为他们掌握Unity的第一步。从一个新游戏开发项目的初始基础开始,你将很快开始编写自定义代码,而不是点击预先编写好的脚本。这个完全更新的第三版包含了完全更新的图形,Unity的最新功能,以及增强和虚拟现实工具包的覆盖。您将从基础上掌握Unity工具集,学习从应用程序程序员到游戏开发者的技能。

https://www.manning.com/books/unity-in-action-third-edition

成为VIP会员查看完整内容
0
43

本书不仅仅只是一本算法题解书,更是一本算法与数据结构基础知识的讲解书。本书易于理解,没有大跨度的思维跳跃,书中使用部分图示、例子来帮助理解。本书先从基础的数据结构和算法开始讲解,再针对不同分类的数据结构和算法,进行具体题目的讲解分析。让读者可以通过「算法基础理论学习」和「编程实战学习」相结合的方式,彻底的掌握算法知识。

本书采用 Python 作为编程语言,要求学习者已有基本 Python 程序设计的知识与经验。

「算法和数据结构」 是计算机程序设计的重要理论技术基础,但很多程序员忽略了它的重要性。在日常开发工作中,最多的情况是使用成熟的开发框架,利用已经封装好的接口,进行 CRUD(增删改查)操作,似乎很少会需要自己实现相应的数据结构和算法。

况且工作中用到的编程语言、开发框架、开发平台,更新速度堪比摩尔定律。以前端为例,React 还没学明白呢,Vue 就火起来了。Vue 2.0 的文档还在研究呢,Vue 3.0 就发布了。很多时候,连新的技术还学不过来呢,哪还有时间去专门研究算法和数据结构呢。

诚然,语言、技术、框架固然重要,但背后的计算机算法和理论更为重要。因为语言、技术、框架的更新日新月异,但万变不离其宗的是背后的算法和理论,例如:数据结构、算法、编译原理、计算机网络、计算机体系结构 等等。任凭新技术如何变化,只要掌握了这些计算机科学的核心理论,就可以见招拆招,让自己立于不败之地。从此无论是看懂底层系统的设计原理、框架背后的设计思想,还是学习新技术、提升工作实战的效率,都可以做到得心应手。

学习数据结构与算法的关键,在于掌握其中的思想和精髓,学会解决实际问题的方法。

本书采用算法与数据结构相结合的方法,把内容分为如下 4 部分:

第一部分是序言(第 00 章):介绍数据结构与算法的基础知识、算法复杂度、LeetCode 的入门和攻略,为后面的学习打好基础。

第二部分是数据结构篇(第 01 ~ 08 章):每一章对应一种数据结构,这个部分用来介绍最常见、最重要的数据结构,以及与该数据结构相关的算法知识。

第三部分是基础算法篇(第 09 章):这一章用来介绍基本的算法思想。包括枚举、递归、贪心、分治、回溯、动态规划,以及位运算。

第四部分是 LeetCode 题解篇(第 10 章):这一章用来讲解我在 LeetCode 上刷过的所有题目。可按照对应题号进行检索和学习。

在本书构思与写作阶段,很多朋友给我提出了有益的意见和建议。这些意见和建议令我受益匪浅。感谢在本书著作准备过程中,帮助过我的朋友,以及一起陪我刷题打卡的朋友,还有提供宝贵意见的读者。感谢为本书提供课程合作和宣传的 DataWhale 开源组织。谢谢诸位。

成为VIP会员查看完整内容
0
40

贝叶斯统计这个名字来源于托马斯·贝叶斯(Thomas Bayes, 1702-1761),一位长老会牧师和业余数学家,他首次推导出了我们现在所知的贝叶斯定理,该定理在1763年(死后)发表。然而,第一个真正发展贝叶斯方法的人是皮埃尔-西蒙·拉普拉斯(1749-1827),因此,也许用拉普拉斯统计学来描述它会更正确一些。尽管如此,我们将尊重斯蒂格勒的同名法则,也将坚持传统,并在本书的其余部分继续讨论贝叶斯方法。从贝叶斯和拉普拉斯(以及其他许多理论)的先驱时代到今天,发生了很多事情——新思想被开发出来,其中许多思想是由计算机激发或使之成为可能的。这本书的目的是为这个主题提供一个现代的视角,从基本原理来构建一个坚实的基础到现代贝叶斯工作流和工具的应用。

https://bayesiancomputationbook.com/welcome.html

我们写这本书是为了帮助贝叶斯初学者成为中级建模者。我们并不是说这在你读完这本书后就会自动发生,但我们希望这本书能引导你走向一个富有成效的方向,特别是如果你彻底阅读它,做练习,应用书中的思想到你自己的问题,并继续从别人那里学习。

特别指出,这本书的目标读者是对应用贝叶斯模型解决数据分析问题感兴趣的贝叶斯从业人员。通常学术界和工业界是有区别的。

我们的目的是在本书完成后,您不仅会熟悉贝叶斯推理,而且会对贝叶斯模型进行探索性分析,包括模型比较、诊断、评估和结果的交流。这也是我们的意图,从现代和计算的角度来教授所有这一切。对我们来说,如果我们采用计算的方法,贝叶斯统计可以更好地理解和应用,这意味着,例如,我们更关心经验检验我们的假设是如何被违反的,而不是试图证明假设是正确的。这也意味着我们使用许多可视化。建模方法的其他含义将随着页面的进展而变得清晰。

最后,正如书名中所述,我们在本书中使用Python编程语言。更具体地说,我们将主要关注PyMC3[1]和TensorFlow Probability (TFP)[2],作为模型构建和推理的主要概率编程语言(pls),并使用ArviZ作为主要的库来探索性分析贝叶斯模型[3]。在本书中,我们不打算对所有Python ppl进行详尽的调研和比较,因为有很多选择,而且它们发展得很快。我们将重点放在贝叶斯分析的实际方面。编程语言和库只是我们到达目的地的桥梁。

尽管本书选择的编程语言是Python,其中选择的库很少,但我们所涉及的统计和建模概念是语言和库无关的,在许多计算机编程语言中都可以使用,比如R、Julia和Scala等等。具有这些语言知识但不了解Python的积极读者仍然可以从这本书中受益,特别是如果他们找到了支持他们所选择语言中等效功能的合适包或代码,以获得实际实践。此外,作者还鼓励其他人将本文中的代码示例翻译成其他语言或框架。如果您愿意,请与我们联系。

第一章提供了对贝叶斯推理的基本和中心概念的复习或快速介绍。本章中的概念将在本书的其余部分重新讨论和应用。

第二章介绍了贝叶斯模型的探索性分析。也就是说,引入了贝叶斯工作流中的许多概念,但这些概念本身并不是推理。在本书的其余部分中,我们将应用和重温本章中的概念。

第三章是专门介绍了一个特定的模型体系结构。它提供了线性回归模型的介绍,并为接下来的五章建立了基本的基础。第三章还全面介绍了本书中使用的主要概率编程语言PyMC3和TensorFlow Probability。

第四章扩展了线性回归模型,并讨论了更高级的主题,如稳健回归、层次模型和模型重参数化。本章使用PyMC3和TensorFlow Probability。

第五章介绍了基函数,特别是作为线性模型扩展的样条,它允许我们构建更灵活的模型。本章使用PyMC3。

第六章重点介绍时间序列模型,从时间序列的回归建模到更复杂的模型,如ARIMA和线性高斯状态空间模型。本章使用TensorFlow Probability。

第七章介绍了贝叶斯可加回归树的非参数模型。我们讨论了这个模型的可解释性和可变重要性。本章使用PyMC3。

第八8章将关注近似贝叶斯计算(ABC)框架,它对于我们没有明确的可能性公式的问题是有用的。本章使用PyMC3。

第九章对端到端贝叶斯工作流进行了概述。它展示了商业环境中的观察性研究和研究环境中的实验性研究。本章使用PyMC3。

第十章深入探讨了概率编程语言。本章将介绍各种不同的概率编程语言。

成为VIP会员查看完整内容
0
42

智源研究院发布 2021 年度《人工智能的认知神经基础白皮书》,兼具专业性与科普性,是人工智能学者探寻“AI+脑科学”交叉学科研发创新的导览之作:

《白皮书》由智源“人工智能的认知神经基础方向”首席科学家刘嘉教授牵头,联合方向智源学者和博士后科研人员共同编著,盘点了神经科学、认知科学、智能技术等相关领域的重要进展,同时还囊括了脑机接口、新型脑成像等学科热点。

相较去年,2021年度《白皮书》对于计算机科学、人工智能、深度学习、强化学习等研究背景的从业者更加友好:解释了强化学习、多模态学习、通用人工智能等热门人工智能课题背后的认知神经研究动机。

近年来人工智能技术得到了快速的发展,引起了各界的广泛关注。随着计算 机算力和大数据可及性的快速提升,以深度人工神经网络为核心的人工智能系统 在物体识别、自然语言处理等领域取得了令人瞩目的成绩,在围棋、星际争霸等 竞技游戏中一骑绝尘,甚至在蛋白质结构解析、提出和解决数学难题等方面展现 出超越人类专家的潜力。但目前的人工智能与通用智能之间,还存在巨大的能力 鸿沟。而大脑作为通用智能的唯一样本,为人工智能的发展提供了重要参照。智 源 “人工智能的认知神经基础”重大方向(Brain and Machine Intelligence)旨在 从生物脑如何实现智能的角度,对于人工智能的发展提出有启发的问题,提供可 资借鉴的原理、模型、算法和系统实现方案,从而促进类脑智能的发展,推动人 工智能向人类水平,甚至超越人类的水平逐渐逼近。每年发表的白皮书就是我们 的尝试之一,希望通过它向大家梳理脑科学、认知科学和类脑智能方向上最值得 关注的动态和进展,并分享我们对于这些方向未来发展趋势的思考。

计算神经科学的先驱,英国科学家 David Marr 曾经提出,可以从三个层面 理解脑的工作原理,首先是计算的层面 (Level of Computation) , 即脑在做什么 计 算 , 以 及 为 什 么 要 做 这 个 计 算 ;其 次 是 表 征 / 算 法 的 层 面 (Level of Representation/Algorithm),即脑在计算过程中的信息如何表征,选择什么算法来 实现计算目标;最后是物理实现的层面(Level of Implementation),即脑选择什么 样的硬件实现形式来执行这些计算。今年的白皮书中,上述三个层面的研究进展 都会有所涉及。

在计算层面,我们重点介绍了具身认知(Embodied Cognition)理论和全局工 作空间(Global Workspace Theory, GWT)理论。与当前主流人工智能主要基于 被动观察与识别,往往不具有具体物理形态的范式不同,具身认知认为,认知过 程无法脱离身体而进行,推广开来,整个环境和个体的行为同样是认知的重要组 成部分。个体通过感知外部环境,进行决策,生成相应动作与环境交互,以此改 变环境,这个过程周而复始,促成了智能的形成和发展。全局工作空间理论则是由美国心理学家 Bernard Baars 在上世纪 80 年代作为一种意识模型而提出的认知 架构,后来发展为“全局神经元工作空间”(Global Neuronal Workspace, GNW)。GNW 如同一个分布式路由器,同各个脑区的众多神经元存在关联,从而可以放大、 维持信息,并提供给各个处理模块使用,从而实现全局的信息共享和处理。

在表征/算法层面,我们今年聚焦于脑中认知地图的表征以及神经流形这两个重要的研究领域。位于脑中海马体及其邻近脑区中存在表征空间特征的位置细 胞(Place cell)和网格细胞(Grid cell),近年来的研究揭示这一系统可能不仅涉 及空间记忆与导航,而且可能参与了物理空间认知以外的信息处理,比如图片空 间、嗅觉空间,甚至关系空间的表征,提示脑中可能用一套通用的机制在处理一 系列表面上截然不同,但是具有深刻共性的信息维度。神经流形(Neural manifold) 则是利用动力学的理论和观点来理解众多神经元构成的群体如何开展高效计算 的有力工具。通过流形向量场这一精确的数学语言对神经电生理信号进行分析已 经开始回答很多有关神经群体编码的关键问题。在物理实现层面,我们重点介绍了受生物视网膜启发的动态视觉传感器 (Dynamical vision sensor,简称 DVS)和脉冲摄像头(Spiking camera)。与传 统的视觉传感器不同,这两类模拟视网膜的感知设备能够将图像信息转化为脉冲 事件流进行表征,具备高动态范围、高时间分辨率、低能量消耗以及高像素带宽 等特性。相应的,我们也系统地梳理了适宜于处理脉冲事件流信号,并可以开展 运动目标快速探测、有效跟踪和精确识别的类脑视觉计算模型和算法。在上述三个方面的内容之外,我们还针对脑科学与类脑智能研究中近年来涌 现的新技术,特别是脑机接口技术、新型脑成像、连接组学与数据处理方法等进 行了梳理和介绍。脑机接口通过对于脑活动信息的检测和调控,在脑与外部世界 间建立直接的信息通讯接口。这一技术的发展,有望对于人与环境、人与人的交 互方式带来根本变化,从而引起社会、经济、教育、军事、医疗等众多领域的颠 覆性变革。新型脑成像、连接组学与数据处理方法,展现了以往观察不到的神经 活动细节,解析了神经网络中各部分的相互作用机制,从而促进人们进一步理解 神经系统的设计原则。

编写白皮书的过程是我们一年一度盘点神经科学、认知科学、智能技术等相 关领域重要进展的过程,也是我们不断思考什么是智能,以及如何发展类脑智能 的过程。希望这些努力能让对于这些领域的进展感兴趣,也对回答这些问题感兴 趣的读者有所收获。与此同时,经过人工智能的认知神经基础方向各位同仁一年 多的努力,智源生物智能开源开放平台(Bio-Intelligence Opensource Platform, BIOSP)已经在 2021 年正式上线,该平台旨在通过开源开放数据、模型、算法、 软件工具等一站式科研资源的方式,为认知科学、神经科学和计算科学及相关交 叉领域的研究人员、学生和相关从业者搭建一个服务智能科学研究的平台型基础 设施,进而推动和支撑国内脑启发的通用智能研究工作。希望每年一版的白皮书 和不断完善的开源开放平台能够助力中国脑-智研究的交叉融合,促进类脑通用 智能的早日实现。

成为VIP会员查看完整内容
0
38

来源:全国信标委智慧城市标准工作组

  城市大脑(也叫城市智能中枢)是运用大数据、云计算、物联网、人工智能、区块链、数字孪生等技术,提升城市现代化治理能力和城市竞争力的新型基础设施,是推进城市数字化、智能化、智慧化的重要手段。

  近年来,各地方结合自身发展需求,积极探索推进城市大脑建设,积累了丰富的实践案例。为落实“十四五”规划要求,推动城市大脑行业发展,树立城市大脑应用的优秀典型,全国信标委智慧城市标准工作组面向全国各地广泛开展了城市大脑应用案例的征集工作。

  截至2021年12月,共征集到来自23家单位提供的35项城市大脑案例,来自直辖市、地级市、县级市以及新区/园区等多类地域,主要应用场景覆盖城市治理、智慧政务、智慧交通、智慧生态、智慧经济、智慧能源和产业融合等多个领域,综合展现了各地市结合本地实际需求在城市大脑方向的探索与实践。通过整理收集的案例,全国信标委智慧城市标准工作组组织各案例提供单位共同编制完成了《城市大脑案例集(2022)》(以下简称“案例集”)。

  案例集旨在为各地开展城市大脑建设提供场景规划和技术实施参考,推动城市大脑行业发展。同时,通过分析案例集,充分挖掘城市大脑标准化需求,为十四五期间城市大脑标准体系构建和城市大脑相关标准的规划与制定提供丰富的实践支撑。  

成为VIP会员查看完整内容
0
41
Top
微信扫码咨询专知VIP会员