近年来,图神经网络(GNN)领域取得了快速和令人难以置信的进展。图神经网络,又称图深度学习、图表示学习或几何深度学习,已成为机器学习特别是深度学习领域发展最快的研究课题之一。这波图论和深度学习交叉的研究浪潮也影响了其他科学领域,包括推荐系统、计算机视觉、自然语言处理、归纳逻辑编程、程序合成、软件挖掘、自动规划、网络安全和智能交通。

尽管图神经网络已经获得了极大的关注,但在将其应用到其他领域时,它仍然面临着许多挑战,从方法的理论理解到实际系统中的可扩展性和可解释性,从方法的可靠性到应用中的经验性能。然而,随着该领域的迅速发展,获得全球视野的gnn的发展已成为一项极具挑战性的工作。

因此,我们感到迫切需要弥补上述差距,并就这一快速发展但具有挑战性的主题出版一本全面的书,它可以造福广泛的读者,包括高级本科生和研究生、博士后研究人员、讲师和行业从业者。

这本书旨在涵盖图神经网络中广泛的主题,从基础到前沿,并从方法到应用。本书致力于介绍GNNs的基本概念和算法,GNNs的新研究前沿,以及GNNs的广泛和新兴应用。

书籍地址: https://graph-neural-networks.github.io/index.html

领域大牛推荐

“第一本全面涵盖一个快速发展的研究领域——图神经网络(GNN)的书,由权威作者撰写!”

韩家炜 - 美国伊利诺伊大学香槟分校计算机系教授,IEEE和ACM院士

这本书提出了一个全面和及时的图表示学习综述。由这一领域最好的专家编辑撰写,这本书是想学习任何关于图神经网络的学生,研究人员和实践者的必读作品。”

沈向洋-计算机视觉和图形学研究的世界级专家,IEEE Fellow,ACM Fellow)美国工程院院士,英国皇家工程科学院的国际院士

“作为深度学习的新前沿,图神经网络在结合概率学习和符号推理、连接知识驱动和数据驱动范式、开启第三代人工智能发展方面提供了巨大的潜力。这本书提供了全面和深刻的GNN介绍,从基础到前沿,从算法到应用。对于任何想要进入这一令人兴奋的领域的科学家、工程师和学生来说,这都是宝贵的资源。”

张钹 - 中国科学院院士,清华大学教授

“图神经网络是机器学习最热门的领域之一,这本书是一个很棒的深度资源,涵盖了图表示学习的广泛主题和应用。” Jure Leskovec -斯坦福大学副教授

图神经网络是一种新兴的机器学习模型,已经在科学和工业领域掀起了一场风暴。是时候采取行动了!它的章节都是由该领域的许多专家精心撰写的。”

Petar Velickovic - DeepMind 高级研究科学家

目录内容:

本书主要分为3部分: Introduction, Foundations of Graph Neural Networks, 和 Frontiers of Graph Neural Networks.

第一部分:引言 第 1 章 表示学习 第 2 章 图表示学习 第 3 章 图神经网络

第二部分:基础 第 4 章 用于节点分类的图神经网络 第 5 章 图神经网络的表达能力 第 6 章 图神经网络:可扩展性 第 7 章 图神经网络中的可解释性 第 8 章 图神经网络:对抗鲁棒性

第三部分:前沿 第 9 章 图神经网络:图分类 第 10 章 图神经网络:链接预测 第 11 章 图神经网络:图生成 第 12 章 图神经网络:图变换 第 13 章 图神经网络:图匹配 第 14 章 图神经网络:图结构学习 第 15 章 动态图神经网络 第 16 章 异构图神经网络 第 17 章 图神经网络:AutoML 第 18 章 图神经网络:自监督学习

第四部分:应用

第 19 章 现代推荐系统中的图神经网络 第 20 章 计算机视觉中的图神经网络 第 21 章 自然语言处理中的图神经网络 第 22 章 程序分析中的图神经网络 第 23 章 软件挖掘中的图神经网络 第 24 章 药物开发中基于 GNN 的生物医学知识图谱挖掘 第 25 章 预测蛋白质功能和相互作用的图神经网络 第 26 章 异常检测中的图神经网络 第 27 章 城市智能中的图神经网络

作者介绍

吴凌飞博士现任京东硅谷研发中心首席科学家。吴博士曾经是 IBM T. J. Watson Research Center 研究科学家和团队带头人。吴博士在 2016 年从威廉玛丽大学取得计算机博士学位。他的研究内容包括机器学习、表征学习和自然语言处理。

吴博士带领的 Graph4NLP (Deep Learning on Graphs for Natural Language Processing) 团队(12+ 研究科学家)致力于机器学习与文本数据挖掘领域的基础研究,并运用机器学习与文本数据挖掘方法解决实际问题。其学术成果先后发表在 NeurIPS, ICML, ICLR, ACL, EMNLP, KDD, AAAI, IJCAI 等国际顶级会议及期刊上,发表论文超过 80 多篇。代表作包括 IDGL, MGMN, Graph2Seq, GraphFlow。多项学术论文获得著名国际大会的最佳论文和最佳学术论文奖,包括 IEEE ICC 2019。

吴博士同时现任 IEEE 影响因子最高期刊之一 IEEE Transactions on Neural Networks and Learning Systems(TNNLS) 和 ACM SIGKDD 旗舰期刊 ACM Transactions on Knowledge Discovery from Data (TKDD) 的副主编。多次组织和担任国际顶级会议大会或者领域主席,如 AAAI, IJCAI, KDD, NeurIPS, ICLR, ICML, ACL, EMNLP。

崔鹏,清华大学计算机系长聘副教授。于 2010 年获得清华大学博士学位,研究兴趣包括因果正则机器学习(causally-regularized machine learning)、网络表示学习和社交动态建模。他在数据挖掘和多媒体领域知名会议和期刊上发表文章 100 多篇,近期研究获得 IEEE Multimedia Best Department Paper Award、ICDM 2015 最佳学生论文奖等多个奖项。2015 年,他获得 ACM 中国新星奖,2018 年获得 CCF-IEEE CS 青年科学家奖。目前,他是 ACM 和 CCF 杰出会员、IEEE 高级会员。

裴健在数据科学、大数据、数据挖掘和数据库系统等领域,是世界领先的研究学者,国际计算机协会(ACM)院士和国际电气电子工程师协会(IEEE)院士,擅长为数据密集型应用设计开发创新性的数据业务产品和高效的数据分析技术。因其在数据挖掘基础、方法和应用方面的杰出贡献,裴健曾获得数据科学领域技术成就最高奖 ACM SIGKDD Innovation Award(ACM SIGKDD 创新奖)和 IEEE ICDM Research Contributions Award(IEEE ICDM 研究贡献奖)。2018 年,裴健入职京东,任集团副总裁。此前,裴健教授还曾担任华为首席科学家。2019 年 9 月,裴健当选加拿大皇家学会院士。

赵亮现为埃默里大学担任计算机系助理教授,研究方向为数据挖掘、机器学习和优化。此前曾在乔治梅森大学信息科技学院和计算机学院担任助理教授。2016 年秋,赵亮获得弗吉尼亚理工大学的博士学位。此外,赵亮曾获 2020 年美国自然科学基金委员会杰出青年奖(NSF CAREER AWARD)、2019 年 Jeffress Trust Award、2017 年弗吉尼亚理工大学计算机学院杰出博士奖,并入选 2016 年微软评选出的数据挖掘领域 20 位学术新星。他还获得过 ICDM 2019 会议的最佳论文奖项。

成为VIP会员查看完整内容
1
129
“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

MIT科学家Dimitri P. Bertsekas今日发布了一份2022即将出版的《Lessons from AlphaZero for Optimal, Model Predictive, and Adaptive Control》书稿及讲义,该专著为强化学习进阶,目的在于通过从AlphaZero获取经验教训,涵盖最优模型预测与自适应控制。

Lessons from AlphaZero for Optimal, Model Predictive, and Adaptive Control

人工智能和强化学习领域中一些最令人兴奋的成功故事都发生在游戏领域。主要的例子是最近的AlphaZero程序(它下国际象棋),以及早期(1990年代)结构类似的TD-Gammon程序(它下西洋双陆棋)。这些程序经过离线的广泛训练,使用复杂的自演化/近似策略迭代算法和神经网络。然而,在离线情况下获得的AlphaZero玩家并不会在在线游戏中直接使用(由于离线神经网络训练固有的近似错误,它太不准确了)。取而代之的是一个单独的在线玩家,它是基于多步预测和一个经过离线训练的终端位置评估器,在线玩家执行一种形式的策略改进,这与离线玩家不同,它不会因神经网络近似而退化。因此,它大大提高了性能。

类似地,TD-Gammon使用没有被神经网络近似退化的前瞻最小化在线执行一个策略改进步骤。为此,它使用了一个经过离线神经网络训练的终端位置评估器,重要的是,它还通过rollout扩展了其在线前向(使用基于位置评估器的一步前向播放器进行仿真)。AlphaZero和TD-Gammon的一个重要教训是,离线训练的控制器的性能可以通过在线游戏、长时间的前瞻性(包括最小化或推出离线获得的策略,或两者都有)和离线获得的终端成本近似大大提高。这种性能的提高通常是戏剧性的,这是由于一个简单的事实,这是我们工作的中心:在线游戏相当于求解Bellman方程的牛顿方法的一个步骤,而牛顿步骤的起点是基于离线训练的结果,并可能通过更长的前瞻性和在线推出得到增强。这个过程可以用动态规划的抽象模型和简单的几何结构来理解。它在一定程度上体现在模型预测控制中,但它似乎还没有在决策和控制社区中得到充分的认识。

在这项工作中,我们的目标是提供洞察力(通常基于可视化),解释在线决策对离线训练的有益影响。虽然我们将不再强调数学证明,但有相当多的相关分析,支持我们的结论,可以在作者最近的RL书籍[Ber19a], [Ber20a]中找到。我们的主要目标之一是通过抽象DP的统一原则表明,AlphaZero/TD-Gammon逼近值空间和rollout的思想非常广泛地应用于确定性和随机最优控制问题,包括离散和连续搜索空间。此外,这些思想可以有效地与模型预测控制、自适应控制、分散控制、离散和贝叶斯优化、基于神经网络的值和策略逼近、启发式算法等其他重要方法相结合。

http://web.mit.edu/dimitrib/www/abstractdp_MIT.html

成为VIP会员查看完整内容
0
86

https://baai.org/l/Frontiers2021

本报告总结2021年人工智能前沿科技主要趋势如下:

  1. 信息模型、具身模型和脑模拟机器人的结合将诞生超级人工智能。

  2. 系统研究超大规模智能模型发展和影响的新兴领域已经形成,超大规模预训练模型研发竞赛进入白热化阶段,多模态预训练模型成为下一个大模型重点发展领域。

  3. Transformer成为计算机视觉领域的重要网络架构,并开始向强化学习、图神经网络等领域渗透。

  4. 加速方法创新提升了超大参数规模模型的训练效率,催生更大规模参数的巨型模型。

  5. Prompt Tuning成为自然语言处理领域预训练语言模型新型训练范式,预训练语言模型发展的新路线是提升训练和推理的效率。

  6. 遮盖图像建模、非Transformer架构、神经辐射场等技术快速发展,成为计算机视觉的热点研究领域;脉冲视觉领域发展,将开辟机器视觉新路线

  7. 生物神经元与芯片结合成为类脑芯片的研究热点。

  8. 高性能、低能耗AI芯片不断涌现的同时,由AI辅助设计成为芯片发展新趋势;存算一体AI芯片设计、应用步伐加快。

  9. Web模型成为新型信息搜索范式的核心支撑,预训练语言模型助力信息检索性能提升。

  10. 借鉴脑神经和认知科学研究成为启发类脑智能研究的重要来源。

  11. 无线高带宽、微创、结合AI算法等成为脑机接口的发展重点。

  12. 传统科研领域成为人工智能发展的“新战场”,人工智能在辅助基础和应用科学研究的同时,也提升了智能产品和服务的性能。

  13. 强化学习环境成为发展泛化性更强、适应复杂环境智能体的重要支撑,而提升训练效率成为强化学习领域的研究重点。

  14. 因果推断在经济学、社会学研究中实现突破。

  15. 基于超大规模预训练模型的平台和系统成为研发机构和企业的发展思路。

  16. 面向更为复杂任务和需求的基准测试和数据集不断涌现。

  17. AI为人类科学家提供领域数据集,助力基础科学研究。

  18. AI算力成为超算性能比拼的“新擂台”。

本报告总结2021年人工智能产业主要趋势如下:

  1. 智能医疗赛道持续火热,各大医疗AI企业纷纷冲刺IPO,“烧钱”成为今年这一赛道最鲜明的标签。
  2. 国家开始逐步发放各类医疗影像AI软件三类证,为医疗影像的发展提供了契机。
  3. 资本助力下,新兴AI创企、互联网科技巨头和传统药企在AI制药领域百花齐放。
  4. 2021年被业界公认为数字疗法产业元年,一批数字疗法企业崭露头角。
  5. 医保的推进可为手术机器人打开市场,全民可用的时代或可指日可待。
  6. 脑机接口不再只是“意念打字”的融资噱头,逐渐从实验室走向临床实践,从科幻照进了现实。
  7. 自动驾驶行业迎来新的投融资热潮,2021年是十年来自动驾驶赛道资本热度最高的一年。
  8. 今年,国内大批Robotaxi企业已进入车队测试及服务试运营的阶段,未来行业的竞争核心也将会转向运营规模与测试里程的比拼。
  9. 乘用场景以外,物流、港口、矿区、城市环卫等细分场景成为自动驾驶落地新风口。
  10. 今年,国内外激光雷达企业也得到了资本市场大力支持。新旧车企纷纷表示,其新车将首次搭载激光雷达,引发激光雷达量产落地的新纪元。
  11. 计算机视觉,在技术成熟度、商业化进程、市场增长速度、投融资热度等方面,是人工智能产业当前热门的发展赛道。2021年,我国计算机视觉产业快速发展,企业加快上市步伐,争夺“视觉AI第一股”。
  12. 随着AI芯片技术的不断发展,芯片制程不断优化,工艺逐步提升,AI芯片功能的细分程度进一步提升,形成异构形态的计算格局。
  13. 高效、节能成为AI芯片发展的长期目标。追求在提升算力的前提下降低功耗,是近年来企业关注的重点。
  14. GPU依然是AI芯片企业研发关注的重点方向。GPU性能较高,且兼具计算的灵活性,适用于构建大规模的AI计算集群,在研发超大规模AI模型方面具有应用前景。

图片图片

成为VIP会员查看完整内容
0
82

1954年,Alston S. Householder发表了《数值分析原理》,这是矩阵分解的第一个现代处理方法,它支持(块)LU分解——将矩阵分解为上三角矩阵和下三角矩阵的乘积。而现在,矩阵分解已经成为机器学习的核心技术,这在很大程度上是因为反向传播算法在拟合神经网络方面的发展。本调研的唯一目的是对数值线性代数和矩阵分析中的概念和数学工具进行一个完整的介绍,以便在后续章节中无缝地介绍矩阵分解技术及其应用。然而,我们清楚地认识到,我们无法涵盖所有关于矩阵分解的有用和有趣的结果,并且给出了这种讨论的范围的缺乏,例如,分离分析欧几里德空间、厄米特空间、希尔伯特空间和复域中的东西。我们建议读者参考线性代数领域的文献,以获得相关领域的更详细介绍。本综述主要是对矩阵分解方法的目的、意义,以及这些方法的起源和复杂性进行了总结,并阐明了它们的现代应用。最重要的是,本文为分解算法的大多数计算提供了改进的过程,这可能会降低它们所引起的复杂性。同样,这是一个基于分解的上下文,因此我们将在需要和必要时介绍相关的背景。在其他许多关于线性代数的教科书中,主要思想被讨论,而矩阵分解方法是“副产品”。然而,我们将重点放在分解方法上,而主要思想将作为分解方法的基本工具。数学的先决条件是线性代数的第一门课程。除了这个适中的背景,发展是独立的,提供了严格的证据。

https://www.zhuanzhi.ai/paper/a392240897ea63228b548b0570a315d4

矩阵分解全景

矩阵分解已经成为统计学的核心技术(Banerjee和Roy, 2014;、优化(Gill et al., 2021)、机器学习(Goodfellow et al., 2016);而深度学习在很大程度上是由于反向传播算法在拟合神经网络和低秩神经网络在高效深度学习中的发展。本调查的唯一目的是对数值线性代数和矩阵分析中的概念和数学工具进行一个完整的介绍,以便在后续章节中无缝地介绍矩阵分解技术及其应用。然而,我们清楚地认识到,我们无法涵盖所有关于矩阵分解的有用和有趣的结果,并且给出了这种讨论的范围的缺乏,例如,欧氏空间、厄米特空间和希尔伯特空间的分离分析。我们建议读者参考线性代数领域的文献,以获得相关领域的更详细介绍。一些优秀的例子包括(Householder, 2006; Trefethen and Bau III, 1997; Strang, 2009; Stewart, 2000; Gentle, 2007; Higham, 2002; Quarteroni et al., 2010; Golub and Van Loan, 2013; Beck, 2017; Gallier and Quaintance, 2017; Boyd and Vandenberghe, 2018; Strang, 2019; van de Geijn and Myers, 2020; Strang, 2021)。最重要的是,本综述将只涵盖矩阵分解方法存在性的紧凑证明。关于如何降低计算复杂度,在各种应用和例子中进行严格的讨论,为什么每种矩阵分解方法在实践中都很重要,以及张量分解的初步研究,请参见(Lu, 2021c)。

矩阵分解是将一个复杂的矩阵分解成其组成部分的一种方法,这些组成部分的形式更简单。全局矩阵计算方法的基本原则是,它不是业务矩阵的algorithmists解决特定的问题,但这是一个方法,可以简化更复杂的矩阵运算,可以进行分解的部分而不是原始矩阵本身。

矩阵分解算法可以分为许多类。尽管如此,六个类别占据了中心,我们在这里概括一下:

  1. 由高斯消去产生的因子分解包括LU分解和它的正定替代- Cholesky分解;
  2. 将矩阵的列或行正交化时得到的因式分解,使数据可以用标准正交基很好地解释; 3.分解矩阵的骨架,使列或行的一个子集可以在一个小的重构误差中表示整个数据,同时,矩阵的稀疏性和非负性保持原样;
  3. 化简为Hessenberg、三对角或双对角形式,结果是,矩阵的性质可以在这些化简矩阵中探索,如秩、特征值等;
  4. 因式分解是计算矩阵特征值的结果;
  5. 特别地,其余的可以被转换为一种特殊的分解,其中涉及到优化方法和高级思想,其中类别可能无法直接确定。
成为VIP会员查看完整内容
0
67

Leiden大学Aske Plaat教授《深度强化学习》2022新书,值得关注!

深度强化学习近年来备受关注。在自动驾驶、游戏、分子重组和机器人等各种活动中,他们都取得了令人印象深刻的成果。在所有这些领域,计算机程序已经学会了解决困难的问题。他们学会了飞行模型直升机和表演特技动作,如回旋和翻滚。在某些应用中,他们甚至比最优秀的人类还要优秀,比如Atari、Go、扑克和星际争霸。深度强化学习探索复杂环境的方式提醒我们,孩子们是如何学习的,通过开玩笑地尝试东西,获得反馈,然后再尝试。计算机似乎真的拥有人类学习的各个方面; 这是人工智能梦想的核心。教育工作者并没有忽视研究方面的成功,大学已经开始开设这方面的课程。这本书的目的是提供深度强化学习领域的全面概述。这本书是为人工智能的研究生写的,并为希望更好地理解深度强化学习方法和他们的挑战的研究人员和实践者。我们假设学生具备本科水平的计算机科学和人工智能知识;本书的编程语言是Python。我们描述了深度强化学习的基础、算法和应用。我们将介绍已建立的无模型和基于模型的方法,它们构成了该领域的基础。发展很快,我们还涵盖了一些高级主题: 深度多智能体强化学习、深度层次强化学习和深度元学习。

https://deep-reinforcement-learning.net/

这本书的目的是呈现在一个单一的深度强化学习的最新见解,适合教学一个研究生水平一个学期的课程。除了涵盖最先进的算法,我们涵盖经典强化学习和深度学习的必要背景。我们还涵盖了自我游戏、多主体、层次和元学习方面的先进的、前瞻性的发展。

深度强化学习建立在深度监督学习和表格强化学习的基础上

在这些章节中有很多材料,既有基础的,也有先进的,有很多文献。一种选择是讲授一门关于书中所有主题的课程。另一种选择是慢一些、深入一些,在基础知识上花足够的时间,创建关于Chaps. 2-5的课程,以涵盖基本主题(基于值、基于策略和基于模型的学习),并创建关于Chaps. 6-9的单独课程,以涵盖多智能体、分层和元学习等更高级的主题。

在这一介绍性的章节之后,我们将继续学习第二章,在第二章中,我们将详细讨论表格(非深度)强化学习的基本概念。我们从马尔可夫决策过程开始,并详细讨论它们。第三章解释了基于深度价值的强化学习。本章涵盖了为寻找最优策略而设计的第一个深度算法。我们仍将在基于价值、无模型的范式中工作。在本章的最后,我们将分析一个自学如何玩上世纪80年代Atari电子游戏的玩家。下一章,第四章,讨论了一种不同的方法:基于深度策略的强化学习。下一章,第5章,介绍了基于深度模型的强化学习与学习模型,该方法首先建立环境的过渡模型,然后再建立策略。基于模型的强化学习有希望获得更高的样本效率,从而加快学习速度。

成为VIP会员查看完整内容
0
57

在过去的几年里,有不少讲深度学习的书籍。今天给小伙伴们推荐8本关于AI和机器学习的经典书籍,大部分都有完整版PDF下载。

这8本书从内容上看,可以分为四类:

机器和深度学习基础知识(适合初学者)

机器学习框架:Pytorch、Tensorflow 和 Keras

MLOP:云、生产和深度学习工程

深度学习理论

机器学习和深度学习基础

Andriy Burkov:The Hundred-Page Machine Learning Book

如果你是新手,看这本书就很适合。如果是老手,可能会觉得这本书很无聊,讲的都是你已经知道的东西。

前两章重点介绍机器学习公式、符号和关键术语。随后,Burkov 分析了最重要的 ML 算法,如回归、决策树、支持向量机和 k-最近邻。

第 4 章是关于梯度下降和学习过程的,第 5 章是最佳实践的集合;即特征工程、正则化、超参数调整等。第 6 章专门介绍神经网络。

之后,Burkov 讨论了如何使用上述方法解决特定问题。书中解释了常见的机器学习挑战、陷阱以及有针对性的解决方案。最后讲到了无监督、自监督和推荐系统等内容。

Meor Amer:A visual introduction to Deep Learning

这本书非常适合喜欢通过直观视觉学习深度学习的人。

总的来说,我们发现这本书很容易理解,因为书中的图和文本之间处于很好的平衡。上一本100多页的书相比,这本书涉及的数学更少,插图更多。

书中在解释反向传播时非常关注细节,不会让读者迷失在数学中。不可否认,反向传播真的很难教,作者Meor在这方面做得很好。此外,书中还对混淆矩阵和 F1 分数等性能指标进行了彻底分析。

但是,这本书让编程人员可能不大方便。这本书讲的是理论的基本部分,但把代码留给读者去尝试。由于这本书的介绍比较笼统,理论和编程实践之间可能会有差距。

相关资源:https://www.kdimensions.com/l/visualdl

机器学习框架:Pytorch、Tensorflow、Keras

Eli Stevens, Luca Antiga, and Thomas Viehmann:Deep Learning with PyTorch

无论你处于什么阶段,要学习Pytorch大概都少不了这本书。本书分为3个部分。

第 1 部分:前 3 章介绍了 PyTorch 和张量操作。第 4 章从字面上描述了如何获取任何数据、视频或一行文本,并将其表示为张量,其中涵盖了医学图像、表格数据和带具体示例的文本,对于初学者,这些内容非常有价值。

第5、6章涵盖了使用简单神经网络(如反向传播)学习过程的所有基础知识,重点是讲如何在Pytorch 中的动手写代码。

第 2 部分讲的是面向现实问题的模型,包括从 3D 图像数据中检测癌症和肺结节等。这部分内容会引导读者完成整个设计和思考过程。作为机器学习建模人员,读者可以掌握需要遵循的所有必要步骤。

虽然我在这里有点偏见,但我喜欢这本书的这一部分,老实说,我认为这里介绍的方法可以转移到解决新问题上。

第 3 部分介绍了从 Pytorch 导出的模型,包括执行推理或移动设备所需的步骤。对于想要学习如何优化训练后模型,并在硬件资源有限的嵌入式设备中使用的工程师来说,这部分内容会很有帮助。

François Chollet:Deep Learning with Python(2nd Edition)

这本书基于 Keras 框架讲述深度学习。本书的第 2 版包含大量新增内容,强烈建议阅读第二版。 前 4 章为新手基础知识,如张量运算、反向传播、基本的 Keras 模块,以及聚类和回归问题。

第 5 章分析了优化和泛化之间的权衡以及它与训练数据的关系。这一章节解释了为什么训练后的模型会通过逼近其数据的潜在流形实现泛化,并可以通过插值对新的输入做出高质量的预测。

第 6 章教你如何处理一个新的机器学习项目,包括设定切合实际的目标、收集数据、打破良好的基线和部署。第 7 章说明了如何更好地理解 Keras API 和回调。

第 8 章和第 9 章通过利用卷积神经网络进行图像分类和图像分割,全面概述了计算机视觉中的深度学习。第 10 章侧重于使用循环神经网络处理时间序列,第 11 章介绍了用于处理文本数据的Transformer架构。

第12章提出了各种生成模型来生成新的文本、图像。作者对生成对抗网络 (GAN) 、变分自动编码器 (VAE) 以及对潜在空间的解释和观点很有意思。

最后,本书涵盖了现实世界的高级概念,例如超参数调整、模型集成、混合精度训练、多 GPU 或多 TPU 训练等。

Laurence Moroney:AI and Machine Learning for Coders: A Programmer's Guide to Artificial Intelligence

如果你正在找有关 Tensorflow 的完整教程,这本书可能是最佳选择。Laurence Moroney 是 Google 的首席 AI 倡导者,在 Tensorflow 及其相关库方面拥有丰富的经验。

本书分为两部分。第一部分关于研究机器学习应用、如何利用 Tensorflow 来开发这些应用。包括计算机视觉、自然语言处理、时间序列分析和序列模型。在这部分可以学习如下内容:

如何使用 Tensorflow 构建 CNN 和 RNN;如何处理文本、图像和时间序列数据;如何利用 Tensorflow 数据集进行数据处理和探索。

第二部分是在实际应用中使用这些模型。读者将熟悉移动或 Web 应用程序上的模型部署。主要内容包括:

如何使用 Tensorflow Lite 在 Android 或 iOS 中嵌入模型;如何利用 Tensoflow.js;什么是 Tensorflow 服务、如何部署模型等。

这本书非常实用,有很多代码段和漂亮的可视化效果。

MLOP:云、生产和深度学习工程

Sergios Karagianakos:Deep learning in production

本书采用动手实践的方法来学习 MLOps。这本书的前提是,读者从一个深度学习模型开始,努力构建一个可扩展的 Web 应用程序。书中包含大量代码段和可视化效果,对于软件背景有限的机器学习研究人员和数据科学家来说,本书是个不错的资源。

书中各章节涉及机器学习生命周期的不同阶段。在讨论了设计阶段之后,读者将熟悉如何编写可维护的深度学习代码(如 OOP、单元测试和调试)的最佳实践。第 5 章是关于构建高效的数据管道,第 6 章涉及云中的模型训练以及各种分布式训练技术。

接着,本书讨论服务和部署技术,同时强调 Flask、uWSGI、Nginx 和 Docker 等工具。最后两章探讨了 MLOP。

更具体地说,是讨论如何使用 Kubernetes 扩展深度学习应用程序,如何使用 Tensorflow Extended 构建端到端pipeline,以及如何利用谷歌云和 Vertex AI。

相关资源:

https://github.com/The-AI-Summer/Deep-Learning-In-Production

Andriy Burkov:Machine learning engineering

这是本文推荐的 Burkov 的第二本书。作者在书中如何构建机器学习应用程序的设计模式和最佳实践方面建立了联系。

与前一本书类似,每一章都侧重于 ML 生命周期的一个单独阶段。从设计阶段开始描述了 ML 项目的挑战和优先级,然后讲到数据处理和特征工程,书中包括了常用行业术语的清晰解释,以及相应解决方案的常见陷阱。

训练和评估阶段分为三章,分析了如何使用正则化、超参数调节等技术提高模型的精度。还讲了关于处理分布偏移、模型校准、a/b 测试等问题。最后两章则讨论了部署策略、模型服务和维护。

PDF: https://drive.google.com/uc?export=download&id=1P0h-3e5Po-gIO-eb8dtYdyHkmzlDGLCS

深度学习理论

Ian Goodfellow, Yoshua Bengio, Aaron Courville:Deep Learning

最后,深度学习理论部分只有这一本书(花书)。

为什么?因为如果你开始一页一页地阅读这本书,你不太可能读完。

这本书更像是一本手册,可以对深度学习从数学的角度进行更深入的理解,获得更可靠的信息。

本书介绍了深度学习理论的广泛主题,建立了坚实的数学背景。书中涵盖的数学领域包括线性代数、概率论、信息论和数值计算。

此外本书还展示了多样化的深度学习技术,如正则化、优化算法、卷积网络、序列建模。涉及到的应用方向包括在线推荐系统、生物信息学和视频游戏等。

最后,本书中还讲了不少有见地的理论观点,如线性因子模型、自动编码器、表示学习、结构化概率模型、蒙特卡罗方法、分区函数、近似推理和深度生成模型等。

PDF: https://polarai.cn/265.html

参考资料: https://theaisummer.com/deep-learning-books-2022/

成为VIP会员查看完整内容
0
53

1、周志华教授:关于深度学习的一点思考

作者:周志华

摘要:深度学习已被广泛应用到涉及图像、视频、语音等的诸多任务中并取得巨大成功。如 果我们问“深度学习是什么?”很可能会得到这样的回答:“深度学习就是深度神经网 络”。至少在目前,当“深度学习”作为一个术语时几乎就是“深度神经网络”的同义词, 而当它指向一个技术领域时则如 SIAM News 头版文章所称[1],是“机器学习中使用深度 神经网络的子领域”。关于深度学习有很多问题还不清楚。例如深度神经网络为什么要“深”?它成功背 后的关键因素是什么?深度学习只能是深度神经网络吗?本文将分享一些我们关于深度 学习的粗浅思考。

网址: https://mp.weixin.qq.com/s/yKzMxJ2pwwLYSO8ry0sJIQ

2、Attention Mechanisms in Computer Vision: A Survey(注意力机制)

清华&南开最新「视觉注意力机制Attention」综述论文,带你全面了解六大类注意力机制方法

作者: Meng-Hao Guo, Tian-Xing Xu, Jiang-Jiang Liu, Zheng-Ning Liu, Peng-Tao Jiang, Tai-Jiang Mu, Song-Hai Zhang, Ralph R. Martin, Ming-Ming Cheng, Shi-Min Hu

摘要:人类可以自然有效地在复杂的场景中找到显著区域。在这种观察的推动下,注意力机制被引入到计算机视觉中,目的是模仿人类视觉系统的这方面。这种注意力机制可以看作是一个基于输入图像特征的动态权值调整过程。注意力机制在图像分类、目标检测、语义分割、视频理解、图像生成、三维视觉、多模态任务和自监督学习等视觉任务中取得了巨大的成功。本文综述了计算机视觉中的各种注意力机制,并对其进行了分类,如通道注意力、空间注意力、时间注意力和分支注意力; 相关的存储库https://github.com/MenghaoGuo/Awesome-Vision-Attentions专门用于收集相关的工作。本文还提出了注意机力制研究的未来方向。

网址: https://www.zhuanzhi.ai/paper/2329d809f32ca0840bd93429d1cef0fe

3、Geometric Deep Learning: Grids, Groups, Graphs, Geodesics, and Gauges(几何深度学习)

重磅!《几何深度学习》新书发布,帝国理工/DeepMind等图ML大牛共同撰写,160页pdf阐述几何DL基础原理和统一框架

几何深度学习是一种从对称性和不变性的角度对大量ML问题进行几何统一的尝试。这些原理不仅奠定了卷积神经网络的突破性性能和最近成功的图神经网络的基础,而且也提供了一种原则性的方法来构建新型的问题特定的归纳偏差。

在本文中,我们做了一个适度的尝试,将Erlangen项目的思维模式应用到深度学习领域,最终目标是获得该领域的系统化和“连接点”。我们将这种几何化尝试称为“几何深度学习”,并忠实于Felix Klein的精神,提出从对称性和不变性的原则推导出不同的归纳偏差和网络架构。特别地,我们将重点放在一类用于分析非结构集、网格、图和流形的神经网络上,并表明它们可以被统一地理解为对应这些域的结构和对称性的方法。

我们相信这篇文章将吸引深度学习研究人员、实践者和爱好者的广泛受众。新手可以用它来概述和介绍几何深度学习。经验丰富的深度学习专家可能会发现从基本原理推导熟悉架构的新方法,也许还会发现一些令人惊讶的联系。实践者可以获得如何解决各自领域问题的新见解。

https://geometricdeeplearning.com/

网址:

https://www.zhuanzhi.ai/paper/1f6bbac326bd8b7c0c8554acaa169012

4、A Survey of Transformers(Transformer综述论文)

复旦大学邱锡鹏教授等「Transformers全面综述」论文

作者:Tianyang Lin,Yuxin Wang,Xiangyang Liu,Xipeng Qiu

摘要:Transformers 在自然语言处理、计算机视觉和音频处理等许多人工智能领域都取得了巨大的成功。因此,自然会引起学术界和工业界研究人员的极大兴趣。到目前为止,各种各样的Transformer变种(即X-formers)已经被提出,但是,关于这些Transformer器变种的系统和全面的文献综述仍然缺乏。在这项综述中,我们提供了一个全面的Transformer综述。我们首先简单介绍了普通的Transformer,然后提出了一个x-former的新分类。接下来,我们将从三个方面介绍不同的x -former架构修改,预训练和应用。最后,展望了未来的研究方向。

网址: https://www.zhuanzhi.ai/paper/f03a47eb6ddb5d23c07f51662f3220a0

5、Model Complexity of Deep Learning: A Survey(深度学习模型复杂性)

裴健等发布首篇「深度学习模型复杂性」综述论文,44页pdf阐述深度学习模型框架、模型规模、优化过程和数据复杂性

作者:Xia Hu,Lingyang Chu,Jian Pei,Weiqing Liu,Jiang Bian

摘要:

模型复杂性是深度学习的一个基本问题。

本文对深度学习中模型复杂性的最新研究进行了系统的综述。深度学习的模型复杂度可分为表达能力和有效模型复杂度。

从模型框架、模型规模、优化过程和数据复杂性四个方面回顾了现有的研究成果。我们还讨论了深度学习模型复杂性的应用,包括理解模型泛化能力、模型优化、模型选择和设计。

最后,我们提出几个有趣的未来方向。

网址: https://www.zhuanzhi.ai/paper/f7c683dfd6eb2f07eba0ed31d337345c

6、Towards Out-Of-Distribution Generalization: A Survey(分布外泛化)

清华大学崔鹏等最新「分布外泛化(Out-Of-Distribution Generalization)」 综述论文

作者:Zheyan Shen,Jiashuo Liu,Yue He,Xingxuan Zhang,Renzhe Xu,Han Yu,Peng Cui

摘要: 经典的机器学习方法是建立在i.i.d.假设的基础上的,即训练和测试数据是独立同分布的。然而,在真实场景中,i.i.d.假设很难得到满足,导致经典机器学习算法在分布移位下的性能急剧下降,这表明研究非分布泛化问题的重要性。Out-of-Distribution分布外 (OOD)泛化问题解决了测试分布未知且与训练不同的挑战性设置。本文首次系统、全面地探讨了OOD泛化问题,从定义、方法、评价到启示和未来发展方向。首先,给出了OOD泛化问题的形式化定义。其次,根据现有方法在整个学习流程中的位置,将其分为无监督表示学习、有监督模型学习与优化三部分,并详细讨论了每一类的典型方法。然后,我们展示了不同类别的理论联系,并介绍了常用的数据集和评价指标。最后,对全文文献进行了总结,并对OOD泛化问题提出了未来的研究方向。本次综述OOD泛化文献可在http://out-of-distribution-generalization.com上找到。

网址: https://www.zhuanzhi.ai/paper/ba690c59e0f80fc34e779b1daa769988

7、Deep Long-Tailed Learning: A Survey(深度长尾学习)

NUS颜水成等发布首篇《深度长尾学习》综述,20页pdf172篇文献阐述长尾类别深度学习进展

作者:Yifan Zhang, Bingyi Kang, Bryan Hooi, Shuicheng Yan, Jiashi Feng

摘要:深度长尾学习是视觉识别中最具挑战性的问题之一,其目标是从大量遵循长尾类分布的图像中训练出性能良好的深度模型。在过去的十年中,深度学习已经成为一种学习高质量图像表示的强大的识别模型,并导致了一般视觉识别的显著突破。然而,长尾类不平衡是实际视觉识别任务中普遍存在的问题,这种不平衡往往限制了基于深度网络的识别模型在实际应用中的实用性,因为长尾类容易偏向主导类,在尾类上的表现较差。为了解决这一问题,近年来人们进行了大量的研究,在深度长尾学习领域取得了可喜的进展。鉴于该领域的快速发展,本文对深度长尾学习的最新进展进行了综述。具体地说,我们将已有的深度长尾学习研究分为三类(即类重平衡、信息增强和模块改进),并根据这三类对这些方法进行了详细的回顾。之后,我们通过一种新提出的评价指标,即相对准确性,来评估它们在多大程度上解决了阶级失衡问题,从而对几种最先进的方法进行了实证分析。最后,我们强调了深度长尾学习的重要应用,并确定了未来研究的几个有前景的方向。

网址: https://www.zhuanzhi.ai/paper/195ac6db0eea180eb9d5b5ef8f4ab0f4

8、Trustworthy AI: From Principles to Practices(可信人工智能)

京东等学者发布《可信赖人工智能》综述论文,62页pdf449篇文献全面阐述可信赖AI的理论与方法

作者:Bo Li,Peng Qi,Bo Liu,Shuai Di,Jingen Liu,Jiquan Pei,Jinfeng Yi,Bowen Zhou

摘要: 人工智能(AI)技术的发展使各种应用系统得以应用于现实世界,影响着人们的日常生活。然而,目前很多人工智能系统被发现容易受到无形的攻击,对弱势群体存在偏见,缺乏对用户隐私的保护等,这不仅降低了用户体验,也侵蚀了社会对所有人工智能系统的信任。在这篇综述中,我们努力为人工智能从业者提供一个全面的指南,以构建可信赖的人工智能系统。我们首先介绍了人工智能可信度的重要方面的理论框架,包括稳健性、泛化性、可解释性、透明度、再现性、公平性、隐私保护、与人类价值观的一致性和问责性。然后我们调研了行业中在这些方面的领先方法。为了统一目前零散的人工智能方法,我们提出了一种系统的方法,考虑人工智能系统的整个生命周期,从数据采集到模型开发,到开发和部署,最后到持续监测和治理。在这个框架中,我们向从业者和社会利益相关者(如研究人员和监管机构)提供具体的行动项目,以提高人工智能的可信度。最后,我们确定可信赖的人工智能系统未来发展的关键机遇和挑战,我们确定需要向全面可信赖的人工智能系统转变范式。

网址:

https://www.zhuanzhi.ai/paper/00386996069b8168827d03f0c809a462

9、Masked Autoencoders Are Scalable Vision Learners(简单实用的自监督学习掩码自编码MAE)

何恺明最新一作论文:简单实用的自监督学习掩码自编码MAE,ImageNet-1K 87.8%!

作者:Kaiming He,Xinlei Chen,Saining Xie,Yanghao Li,Piotr Dollár,Ross Girshick

摘要:

何恺明提出一种用于计算机视觉的可扩展自监督学习方案Masked AutoEncoders(MAE)。所提MAE极为简单:对输入图像进行块随机mask并对遗失像素进行重建。它基于以下两个核心设计:

我们设计了一种非对称编解码架构,其中编码器仅作用于可见块(无需mask信息),而解码器则通过隐表达与mask信息进行原始图像重建;

我们发现对输入图像进行高比例mask(比如75%)可以产生一项重要且有意义的自监督任务。

上述两种设计促使我们可以更高效的训练大模型:我们加速训练达3x甚至更多,同时提升模型精度。所提方案使得所得高精度模型具有很好的泛化性能:仅需ImageNet-1K,ViT-Huge取得了87.8%的top1精度 。下游任务的迁移取得了优于监督训练的性能,证实了所提方案的可扩展能力。 网址:

https://www.zhuanzhi.ai/paper/1dbb3e8f5e16dc9a048a02ceee8eb617

10、徐宗本院士谈人工智能的10个重大数理基础问题

徐宗本院士:人工智能的10个重大数理基础问题

作为新一代信息技术的代表,人工智能已经广泛应用于科学、社会、经济、管理的方方面面,已经和正在成为创新驱动发展的核心驱动力之一。然而,就其技术发展而言,人工智能还只是突破了从“不可用” 到“可以用”的技术拐点,从“可以用”到“很好用” “用得好”还存在诸多技术瓶颈,正呼唤重大技术变革。

技术变革的先导是理论创新,即基础研究。它是指对事物本质和规律的科学化探寻和揭示,是启发、促动技术变革的激发源和理论依据。理论创新既应包括对原有理论体系或框架的新突破、对原有理论 和方法的新修正和新发展,也包括对理论禁区和未知领域的新探索。

本文主要关注人工智能技术发展当前亟待解决的重大数理基础问题。为什么要特别关注 AI 的数理基础问题呢?这是因为当前人工智能技术和发展主要是靠“算例、算法、算力”所驱动的,其基础是数据,其核心是算法,这二者都深刻地以数学为基础。数学主要提供对所研究问题的形式化手段、模型化工具和科学化语言。没有形式化就没有程式化和计算机化,没有模型化就没有定量化和知识化,没有科学化就没有系统化和现代化。所以,数学在科学技术中具有独特的作用和价值。对人工智能而言,数学不仅仅是工具,还是技术内涵本身, 而且常常也是最能体现本质、原始创新的部分。

本文提出并阐述人工智能研究与应用中凾待解决的10个重大数理基础问题,包括:

(1) 大数据的统计学基础; (2) 大数据计算的基础算法; (3) 数据空间的结构与特性; (4) 深度学习的数学机理; (5) 非正规约束下的最优输运; (6) 如何学习学习方法论; (7) 如何突破机器学习的先验假设; (8) 机器学习的自动化; (9) 知识推理与数据学习的融合; (10) 智能寻优与人工智能芯片问题.

成为VIP会员查看完整内容
0
52

https://github.com/scutan90/DeepLearning-500-questions

深度学习500问——AI工程师面试宝典(博文视点出品),谈继勇 主编,郭子钊,李剑,佃松宜 副主编 著

内容简介

本书系统地描述了深度学习的基本理论算法及应用。全书共14章,第1-3章论述了数学基础、机器学习基础和深度学习基础;第4-7章介绍了一些经典网络及计算机视觉领域中常用的CNN、RNN、GAN等网络结构技术;第8-9章介绍了深度学习在计算机视觉领域的目标检测及图像分割两大应用;第10-14章介绍了计算机视觉领域主要的优化方法及思路等,包括迁移学习、网络架构及训练、网络优化技巧、超参数调整及模型的压缩和加速等。本书凝聚了众多一线科研人员及工程师的经验,旨在培养读者发现问题、解决问题、扩展问题的能力。

本书内容取材于编者在日常学习过程中总结的知识点及各大公司常见的笔试、面试题。本书可为高等院校计算机科学、信息科学、人工智能、控制科学与工程、电子科学与技术等领域的研究及教学人员提供参考,也可为相关专业本科生及研究生提供思考方向,还可为深度学习及计算机视觉领域的初、中级研究人员和工程技术人员提供参考,尤其适合需要查漏补缺的应聘者及提供相关岗位的面试官阅读。

作者简介

谈继勇 主编

南方科技大学和哈尔滨工业大学联合培养博士(在读),现任瀚维智能医疗技术总监,深圳工信局专家库专家,兼任南方科技大学、四川大学研究生企业导师,南方科技大学和瀚维智能医疗联合实验室副主任,北京探工所特聘技术专家,曾先后在中科院信工所、香港中文大学(深圳)、FOXCONN机器人与人工智能实验室、顺丰科技等单位任职。主要专注于智能感知与控制、实时智能与计算机视觉方向的研究,主持/主研国家自然科学基金、省重点研发计划、深圳战略性新兴产业计划等项目20余项,发表SCI/EI论文20余篇,申请发明专利40余项,获全国发明金奖。

郭子钊 副主编

四川大学计算机科学专业博士,硕士毕业于四川大学自动化系,主要从事AI芯片、深度学习、行为检测识别、人脸检测识别等相关研究工作。

李剑 副主编

同济大学计算机科学专业博士,浙江农林大学副教授、硕士生导师,主要从事推荐系统、排序学习、凸优化等机器学习领域的科研和教学工作,发表SCI论文10余篇,曾获浙江省科技进步二等奖等多项省部级奖项。

佃松宜 副主编

日本东北大学博士,四川大学电气工程学院教授、自动化系系主任,四川省信息与自动化技术重点实验室主任。主要专注于先进控制理论与人工智能算法研究、嵌入式计算与实时智能系统的研究与开发、机器人与智能装备的智能感知与控制技术的研究、工业测控与智能物联的研究。近5年来主持包括国家重点研发计划、基金、国网总部项目等各类科研项目近30项,累计总经费近2200万元;发表论文100多篇,其中SCI/EI检索近40篇,ESI高引论文1篇。参与编撰专著3部(其中英文专著1部),参编国家九五规划教材1部。

王晋东 特邀编委

中科院计算所博士,微软亚洲研究院机器学习研究员,主要从事迁移学习和机器学习方向的研究工作,在IJCAI、CVPR、ICDM、UbiComp、ACMMM、PERCOM、IJCNN、PRICAI、IEEE TNNLS、NEUNET、PRL、PMCJ、IMWUT、IJMLC、ICME、ACM TIST等国际权威期刊和会议上发表论文20余篇,多次获得“最佳论文”奖。作品有《迁移学习简明手册》等。

王超锋

上海大学硕士,百度计算机视觉算法工程师,主研图像处理,深度学习等方向。曾多次在国内外各类知名计算机视觉挑战赛中获得优异成绩。

郭晓锋

中国科学院硕士,爱奇艺算法工程师,主要从事图像处理、深度学习等方向的研究,曾获“2017华为软件精英挑战赛”复赛第6名。

黄伟

华南理工大学硕士,顺丰科技机器人算法工程师,主要从事计算机视觉和自然语言处理方向的研究。曾在相关领域国际期刊、会议上发表论文,并在相关竞赛中获得优异成绩。

陈方杰(Amusi)

上海大学硕士,CVer(计算机视觉知识分享和学习交流平台)创始人。

李元伟

国防科技大学硕士,深圳瀚维智能医疗科技公司高级算法工程师,南方科技大学和瀚维智能医疗联合实验室委员,主要从事机器视觉、图像处理及深度学习方向的研究工作,参编普通高等教育十三五规划教材《图像通信基础》,在IEEE TCSVT、COGN COMPUT等发表学术论文多篇,曾获湖南省/全军优秀硕士论文。

陈琳

北京航空航天大学博士(在读),研究方向为无人机智能控制与决策、仿生智能计算。

成为VIP会员查看完整内容
0
54

深度学习:全面指南提供了深度学习(DL)和机器学习(ML)的概念的全面覆盖。DL和ML是最受欢迎的领域,需要深刻的理解。这本书使读者能够基于ML和DL构建创新和有用的应用。从神经网络的基础开始,并继续通过各种类型的CNN, RNNs, LSTM的架构,以及更多,直到书的结尾,每一个主题都给予了最大的照顾和专业和全面的塑造。

https://www.routledge.com/Deep-Learning-A-Comprehensive-Guide/Vasudevan-Pulari-Vasudevan/p/book/9781032028828

关键特征: 包括从ML概念到DL概念的平稳过渡

对于所有基于代码的示例,都提供了逐行解释

包括许多实际的例子和面试问题

即使是非计算机科学背景的人也可以从这本书中受益,学习理论、例子、案例研究和代码片段

每一章都以目标开始,并以一组测试读者理解力的测试问题结束

包括对提供额外指导的相关YouTube视频的引用

人工智能是每个人的领域。这本书面向所有人,不论他们的专业领域是什么。毕业生和研究人员在深度学习将发现这本书有用。

成为VIP会员查看完整内容
0
50

除了以实体为中心的知识(通常以知识图谱(knowledge Graph, KG)的形式组织起来),事件也是世界上必不可少的一种知识,它引发了以事件为中心的知识表示形式(Event KG, EKG)的兴起。它在许多机器学习和人工智能应用中发挥着越来越重要的作用,如智能搜索、问题回答、推荐和文本生成。本文从历史、本体、实例和应用视图等方面对EKG进行了全面的综述。为了更全面地描述EKG,我们将重点关注它的历史、定义、模式归纳、获取、相关的代表性图形/系统和应用程序。研究了其发展过程和趋势。我们进一步总结了未来EKG研究的发展方向。

知识图谱(KG)是谷歌在2012年发布的一种流行的知识表示形式。它关注名义实体及其关系,因此代表静态知识。然而,世界上存在着大量的事件信息,传递着动态的程序性知识。因此,以事件为中心的知识表示形式(如Event KG (EKG))也很重要,它将实体和事件结合在一起。它促进了许多下游应用,如智能搜索、问答、推荐和文本生成[1]、[2]、[3]、[4]、[5]。

本文就EKG的概念及其发展进行了深入的探讨。关于EKG你想知道什么?你可能会对它的产生感兴趣,也就是所谓的EKG,如何构建它,以及它的进一步应用。为了全面介绍EKG,我们从历史、本体论、实例和应用视图等方面对其进行了介绍。从历史的观点,我们介绍了EKG的简史和我们导出的EKG的定义。从本体的角度,提出了与EKG相关的基本概念,以及EKG相关的任务和方法,包括事件模式归纳、脚本归纳和EKG模式归纳。从实例视图,我们详细阐述了事件获取和与EKG相关的代表图/系统。具体来说,事件获取的重点是如何构建一个基本的EKG,并获得一个更好的EKG。前者包括事件抽取和事件关系抽取,是最基本的任务。后者包括事件相互引用解析和事件参数补全。从应用的角度,介绍了一些基本的应用,包括脚本事件预测和时间KG预测,以及一些深层次的应用,如搜索、问答、推荐和文本生成。并对相关任务的发展过程和趋势进行了深入的研究和分析。然后指出未来的方向。

事件知识图谱发展历程

什么是EKG?历史视角

在本节中,我们将从历史的视角,简要介绍EKG的历史。然后我们根据历史上与EKG相关的概念推导出EKG的定义。

什么是EKG?本体视角

从本体的角度来看,我们研究了模式和相关的任务。EKG的模式描述了构成它的基本概念,比如事件类型、事件参数的角色以及事件之间的关系。事件类型和事件参数的角色构成了事件的框架,即事件模式。对于事件之间的关系,典型的脚本[30]根据一些事件关系组织一组事件,这些事件关系共同描述了常见的场景。

未来方向与挑战

关于EKG的研究和成果有很多。然而,仍有几个方向需要关注和进一步研究。在本节中,我们将深入探讨这些未来的方向。

高性能的事件获取

最近的事件获取研究在有效性和效率上远远不能满足应用需求。特别是事件提取和事件关系提取的精度较低。从而阻碍了高质量基础EKG的构建。此外,现有的模型通常不重视复杂性问题。然而,高参数复杂度和高时间复杂度的模型不利于从大量数据中快速构建EKG。因此,高效率的事件获取是未来的一个重要方向。

多模态知识处理

在现实世界中,事件可能以文本、图像、音频和视频的形式呈现。然而,现有的关于EKG的研究多集中在文本处理上,而忽略了图像、音频、视频中的大量信息。对于多模态事件表示学习[214]和事件抽取[215]的研究很少。实际上,不同模态的事件可以消除歧义,相互补充。因此,多模态信息的联合利用是未来的一个重要方向。具体来说,来自所有模态的事件应在一个统一的框架中表示,事件获取研究应注意多模态提取,EKG图推理也应考虑多模态信息。

可解释EKG研究

在EKG研究中,研究主要集中在用深度学习方法拟合训练数据。然而,它们通常缺乏可解释性,也就是说,对于它们为什么和如何工作没有明确的想法。实际上,了解最终结果的原因有助于在实际应用中采用它们。它是友好和令人信服的解释为什么最终结果是给定的。未来可解释性EKG的研究将是一个重要的方向。

实用EKG研究

在与EKG相关的任务中,有些任务的形式化过于理想化,与现实场景相距甚远。例如,在一个现有的事件中,只完成一个缺失的参数或参数角色,通过从几个候选对象中选择它来预测未来的脚本事件,并且只预测未来事件的一个元素。在更实际的形式下进行研究更具挑战性,但也更有趣,对应用具有重要意义。

EKG对于许多都很重要,包括智能搜索、问题回答、推荐和文本生成。本文从不同角度对EKG的研究进行了综述。特别地,我们深入研究了EKG的历史、本体、实例和应用视图。它的历史,定义,模式归纳,获取,相关的代表图/系统,和应用进行了深入的研究。根据其发展趋势,进一步总结了未来EKG研究的展望方向。

成为VIP会员查看完整内容
0
50

【导读】Pytorch官网Pytorch.org最近发布了一本开源书深度学习《Deep Learning with PyTorch》,共522页pdf,限时开放,涵盖了深度学习和Pytorch库的介绍,预训练网络,张量,学习机制,数据神经网络学习。书里面有详实的代码,是入门学习Pytorch深度学习必备器物,不得不看!

网址: https://pytorch.org/deep-learning-with-pytorch

《PyTorch 深度学习》旨在指导人们开始自己的 AI/机器学习开发之路,全书总共有15 个章节

深度学习与PyTorch教你创建神经网络和深度学习系统与PyTorch。这本实用的书将快速引导您从零开始构建一个真实世界的示例:一个肿瘤图像分类器。一路上,它涵盖了整个DL管道的最佳实践,包括PyTorch张量API、用Python加载数据、监控培训和可视化结果。在涵盖了基础知识之后,本书将带您进入一个更大的项目之旅。这本书的核心是一个为癌症检测而设计的神经网络。您将发现用有限的输入训练网络的方法,并开始处理数据以获得一些结果。您将筛选不可靠的初始结果,并专注于如何诊断和修复神经网络中的问题。最后,您将了解通过使用增强数据进行训练、改进模型体系结构以及执行其他微调来改善结果的方法。

使用PyTorch的深度学习提供了一个详细的、实际操作的介绍,本书介绍如何使用PyTorch构建和训练神经网络,PyTorch是一个流行的开源机器学习框架。这本书包括:

成为VIP会员查看完整内容
0
47

 新冠肺炎疫情持续延宕,世界经济复苏震荡不定,与此同时,数字科技正前所未有地渗透到经济社会的方 方面面,一个更加智能泛在、虚实共生的时空正在全面展开。

  腾讯于2020年发起了《数字科技前沿应用趋势》研究项目,其中的很多预判已成为行业热点,人工智能等数字技术在医疗、自动驾驶、安全等领域的应用深入开展,沉浸式媒体、数字虚拟人、虚实集成打开了全真数字世界的大门。

  新一年,腾讯继续聚焦近未来有望落地的科技趋势,凝练出三大类、十个重点方向:云原生、人工智能、未来网络、云安全、量子计算等领域的新变革有望重塑信息基础设施;空天科技、能源互联网、复杂任务服务机器人与信息技术的融合正迸发出强劲的跨界创新势能;万物孪生、扩展现实将进一步连通虚实世界,为人们创造全新的体验和数字生产力,让虚拟世界更真实、让真实世界更丰富。

  趋势1:云原生加速IT体系迈进全云时代

  云原生是一种IT技术方式,使组织能够在云计算环境中构建和运行可扩展的应用。随着数字化的普及和深入,海量数据实时、灵活处理的情况日益普遍,传统IT架构越来越难以适应。云原生通过容器、服务网格、微服务、不可变基础设施和声明式API等关键技术,使松散耦合的系统具有弹性、可管理性和可观察性,能够更低成本、高效地调用各类云计算资源向业务交付应用,推动IT体系向全面云化的新阶段演进。

  首先,无服务器计算(Serverless)兴起,正在成为云原生加速发展的新路径。其次,分布式云将有效拓展云原生业务构建的物理边界,大幅减轻用户多云管理负担。最后,异构计算促进软硬件相互定义和融合发展,推动云原生基础设施性能持续突破瓶颈。

  虽然云原生已经成为主流探索方向,但涉及IT体系的整体变革仍面临不少挑战。主要有:一是云原生资源的多变性影响IT体系全链条的可观测性。二是云原生实践过程中迁移和管理复杂度较高。三是数据隐私和安全风险也是影响云原生发展的关键问题。

  未来,伴随着云原生操作系统的持续发展和完善,在多云、混合云场景下提供一致的产品服务和体验将成为业界共同努力的方向。传统的公有云边界有望突破,公有云的产品将“延伸”到任何用户需要的环境中,不同的物理位置均可提供云原生服务,加速数字业务云上的闭环。

  趋势2:量子计算NISQ时期仍将持续

  2021年是量子计算界备受瞩目的一年,中国连续两次实现了量子计算优越性,国际上量子计算企业获得风险投资首次突破10亿美元,量子比特数量实现较大规模增长,国内“祖冲之二号”量子比特数量已达66个,国际上推出了127量子比特超导量子处理器以及基于中性原子的256量子比特模拟器,软件开发和算法应用也在加紧实验探索中。

  当前,量子计算处于NISQ(含噪声中等规模量子)时代。产业界均在努力增加量子比特数量,提升单个量子比特的质量。

  2022年,将是量子计算继续积蓄力量之年。随着100+量子比特设备的推出,需要开发适用于更大规模量子计算机的软硬件相关技术,为未来通用量子计算机的实现打好基础。

  硬件方面,主流量子计算硬件技术(如超导、离子阱、光量子等)将并行发展,按照一些国际大公司公布的路线图,两到三年内,量子计算有望突破1000量子比特。软件算法方面,预计在2023年前后,量子计算有希望开始在若干领域(例如组合优化、量子化学、机器学习等)实现具有应用价值的专用量子模拟机。

  趋势3:人工智能迈向普适化和工业化新阶段

  近年来,人工智能已经在语音、图像、视频和自然语言处理等领域取得了长足的进展,并在一些特定的任务上超越了人的能力,尤其是一些突破性的成果,诸如Alpha Fold2破解困扰生物学界50多年的蛋白质结构预测难题,让人们再次惊叹和期待人工智能改变世界的无限可能。在重点应用方面,融合了语音识别、语音合成、自然语言处理、多模态建模、知识图谱、3D视觉技术和语音驱动面部动画的数字虚拟人技术成为热点,从虚拟客服、虚拟主播、虚拟偶像到各行业的数字员工,数字人正在以更快的速度融入到经济社会中,推动虚拟世界和现实世界的进一步融合。作为人工智能集大成者的自动驾驶持续火热,传统车厂、造车新势力和跨界者纷纷加速布局,在国内数十个城市全面展开了自动驾驶的测试和运营。

  人工智能的大规模应用仍然面临技术瓶颈,如依赖大量标注数据、模型泛化能力弱、鲁棒性较弱、研发效率低、部分行业数据量少等问题,限制了产业的进一步发展。但这些问题随着超大模型、一站式机器学习平台、小样本学习等技术的加速演进,有望得到解决,进一步推动人工智能向更加普适化和工业化的方向迈进。

  超大模型将加速通用人工智能进程,推动算法普适化。小样本学习技术破解数据缺乏难题,助力更多行业智能化。一站式机器学习平台有望成为人工智能研发基础设施,推动模型工业化。人工智能在产业落地中,还面临一些模型本身的问题和外部安全风险。

  趋势4:云网融合构建“连接升维”

  得益于信息通信技术的快速发展,互联网从发端时主要聚焦在科研逐步向消费型网络发展,目前正向生产型网络不断演进,未来网络将从信息传输向产业服务转变,网络将更加智能化、便捷化。

  通感一体塑造全真全感互联。从1G到5G时代,通信能力和感知能力是相互独立的,进入后5G时代后,随着通信频谱向毫米波、太赫兹、可见光扩展,与传统的感知频谱重合,使得通信与感知融合成为了可能。

  AI构建智慧化网络。将人工智能与无线通信相结合,通过构建新型无线AI网络架构和协议,可以显著提升网络智能,促进感知、通信与计算的深度融合。AI网络提供的低碳节能的开放生态,将持续推动周边产业的发展,已成为行业公认的发展趋势。

  空天地一体化组网。空天地一体化指的是天基(高轨/中轨/低轨卫星)、空基(临空/高空/低空飞行器)等网络与地基(蜂窝/WiFi/有线)网络的深度融合,在系统层面实现地面与非地面网络的全面一体化,在协议、网络、业务、终端等方面实现深度融合。

  趋势5:疫后新需求按下云原生安全发展快进键

  企业数字化转型与业务上云成为产业互联网发展的重要趋势,传统企业保护边界逐渐被瓦解,平台、业务、用户、终端呈现出多样化趋势,边界消融导致攻击面逐渐增多,带来更多安全风险。如何构建企业的“主动免疫”体系,成为业内关注的焦点。

  零信任重塑安全新边界。零信任作为一种基于动态身份认证和授权的安全理念框架,对访问控制进行颠覆式创新,引导安全体系架构从以“网络为中心”向“身份为中心”进行演化升级。

  云上安全防御将成为抵御勒索攻击最优解。勒索攻击已经成为全球经济面临的严重威胁之一,企业遭受攻击不再是“会不会”的问题,而是“何时”的问题,勒索攻击俨然成为产业互联网时代的“流行病”。从技术层面来讲,可通过聚焦零信任、威胁检测等安全前沿技术,保障云平台和云上业务安全。云原生安全产品由于自适应、全生命周期防护的显著优势,是兼顾成本、效率及安全的云上安全防御“最优解”。

  扩展威胁检测与响应(Extended Detectionand Response,简称“XDR”)有望提升组织整体网络安全风险响应速度。以大数据分析、自动化技术为核心,融合多种威胁检测能力的XDR技术将有效应对利用人工智能技术发起的自动攻击。在检测方面,XDR将帮助用户对资产、漏洞、威胁、事件进行排查,从而快速了解网络的暴露面和重点攻击手法,提前针对性制定防御策略。

  趋势6:多路径并行演进推动万物孪生

  数字孪生成为理解和优化物理实体的中间件。数字孪生具备实时感知、虚实映射、人机交互等多种能力,可以帮助人们通过对虚拟空间的观察和交互,去理解和优化真实的物理空间。

  行业建模工具通过融合多类技术向实时化、显性化和友好交互方向演进。一是通过融合高性能计算、5G传输、云渲染等技术,从计算、传输、呈现多个角度全面提升实时性。二是借助3D展示、模型轻量化等技术实现显性化表达,降低理解门槛。三是通过结合AR/VR提升交互友好性性,工业、城市、医疗等领域的建模工具均加速丰富接口和数据格式,以适配虚拟现实平台,实现数字孪生和虚拟现实的融合应用。

  游戏引擎为行业数字孪生构建提供新型路径。一方面游戏引擎凭借其模拟逼真、渲染实时、开发便捷的特点成为当下产业界实践数字孪生平台的路径;另一方面,游戏引擎逐步融合行业知识和前沿技术来提升数字孪生的应用能力。

  趋势7:硬件迭代驱动扩展现实(XR)产业拐点到来

  VR光学、显示、定位和交互等硬件技术发展方向和思路比较明确,超短焦的光学设计、Micro-LED、更轻便的交互控制器将是未来方向。

图片

  VR硬件发展路径基本明朗。VR头显将进一步轻薄化,光学方案将在保障显示效果前提下,由目前主流的菲涅尔透镜向更轻薄的超短焦技术路线发展,产品将更加轻薄,重量将进一步降低,佩戴体验将更加友好。

  和VR相比,AR硬件仍在成熟过程中,短时间内多种技术路线将会并存。光学和显示是AR产品的核心。

  以手机为显示终端的VR360或全景视频发展迅速。目前VR360已经在看房、文旅、会展等场景中得到大范围的应用。一些互联网视频网站和生活服务网站,也将其作为重要流量入口,并融入到现有业务和商业逻辑中。

  趋势8:多模态融合驱动复杂任务服务机器人进入家庭生活

  家庭是典型的非标场景,对机器人技术成熟度要求远高于工业和商用,且可为机器人支付的成本相对有限。

  感知、理解、控制是智能机器人的三个核心模块。未来3-5年,多模态融合感知、非结构化场景AI分析与柔性本体技术将取得突破,助推可执行复杂任务的智能服务机器人进入家庭生活。多模态融合感知技术的普遍应用,提升了机器人环境感知能力,加速了服务机器人适配家庭需求的进程。

  展望未来,随着物联感知设备价格亲民化、减速机国产化、开发者生态的不断完善等,更稳定、更便宜的消费级机器人变成可能。但机器人成为家庭生活的智能执行体和标配“成员”,仍需经历更长的发展期。

  趋势9:双碳目标倒逼能源互联网加快发展

  随着新能源技术与信息技术的发展和成熟,能源互联网成为双碳背景下能源结构转型的重要解决方案。可以预见,未来电网的源、荷、储三端将会发生重大变化:在源端,波动的清洁能源将大规模、高比例地接入电网;在负荷侧,大量用户将迎来参与发电和储能的“新身份”;在储能方面,大量电化学储能技术的发展,尤其是氢储能技术,将大大降低能量的存储与运输成本。这些变化将给能源互联网发展带来重大变革:在能量层,建设多能互补的综合能源系统,以匹配多变的能源供需;在信息层,通过建设电力-交通耦合网络、电力-算力耦合网络等,实现智慧的能源管理和控制;在价值层,能源互联网的建设需要探索能源共享经济,引导全民参与,实现共建共享共赢。

  源、荷、储三端的快速变化,带来了对“网”端一体化、数字化的改造、优化需求,互联网技术与原有能源系统耦合的不断加深,正在加速能源互联网技术的成熟和落地。基于构建绿色低碳、安全高效和开放共享的能源生态的目标,三大技术趋势正在加速形成:能量层,绿色、低碳的综合能源网络将日益重要。

  能源互联网是一个复杂巨系统,双碳目标下,其主体不应再局限于两大电网和传统新能源公司,而是将有更多互联网公司、数字化公司、金融公司、综合能源服务公司参与其中,通过构建“清洁低碳、安全高效、开放共享”的新型能源生态系统,共同探索双碳目标的快捷安全达成路径。

  趋势10:星地协同智能化开启“大航天”时代

  太空在经济、社会、军事等领域发挥着举足轻重的地位,成为新一轮国家竞争的制高点。航天智能化水平快速提升,成为技术创新与突破的新平台。

  星地智能化协同,提升卫星海量数据智能化处理能力。一方面,为了应对海量数据和传统卫星较弱的数据处理能力之间的矛盾,卫星需要通过AI算法对海量数据进行预处理。另一方面将地面数据中心“发射到太空”。卫星上预处理完的有效数据传输到地面数据中心,数据中心具备的AI算法和大数据处理能力可以对接收的数据进行二次计算,实现分析处理快速响应。

  人工智能技术助力卫星遥感数据融入千行百业。利用计算机视觉技术将是卫星遥感数据处理的重要趋势,通过深度学习技术可以在确保成果质量的基础上,大幅提升效率,正融入不同应用场景。

  航天商业化将开启大众服务窗口。航天的产品设计不再追求宇航级质量和要求,更加注重现有技术的不断迭代和工业化量产。太空旅行、空间站商业化、太空电影拍摄逐步向大众市场普及。

成为VIP会员查看完整内容
1
48

来源:商汤智能产业研究院

  据彭博资讯预测,到2024年,元宇宙的市场规模将达到8000亿美元。普华永道预测,到2030年元宇宙的市场规模将达到1.5万亿美元。近日,中国世界青年峰会与商汤科技、增强现实技术产业联盟(CARA)联合发布了《元宇宙“破壁人”:做虚实融合世界的赋能者》。

  虽然业内对元宇宙并没有一个统一的定义,但普遍认为元宇宙应同时具备“沉浸感、开放性、随时随地,以及经济系统”四大基础共性。

沉浸感:元宇宙世界与真实世界一样是三维立体的,同时在虚拟世界中的体验应逼近与真实世界的感官体验。

开放性:开放既指技术的开源又指平台的开放。元宇宙通过制定“标准”和“协议”将代码进行不同程度的封装和模块化,不同需求的用户都可以在元宇宙进行自主创新和创造,构建原创的虚拟世界,不断拓展元宇宙边界。同时,元宇宙的基础仍是互联网,而互联网的本质是连接和开放。彼此独立、不兼容的虚拟世界,无法带给人们极致的体验。

随时随地:用户可以使用任何设备登录元宇宙,随时随地沉浸其中。同时,元宇宙必须能支持大规模同时在线。

经济系统:元宇宙应具有独立的经济系统和运行规则,人们可以在其中拥有属于自己的虚拟身份,并进行内容创造、社交娱乐、价值交换等活动。毫无疑问,经济系统的闭环运行是驱动和保障元宇宙不断变化和发展的动力引擎。

  “三张图”认识元宇宙

第一张图:解构元宇宙

元宇宙必须要建立在先进的数字基础设施之上

  元宇宙的“沉浸感”“随时随地”特性不仅对网络传输及计算能力提出很高的要求——通过低延时网络连接,以及云边端协同计算,降低对终端硬件的性能要求,从而支撑逼真的感官体验和大规模用户同时在线需求,提升元宇宙的可进入性和沉浸感;人工智能贯穿元宇宙内容生产、分发到应用全过程,加速内容生产、增强内容呈现,以及提升内容分发和终端应用效率;区块链技术支撑元宇宙经济系统的有序运转,保障数字资产和数字身份安全,同时协助系统规则的透明执行。

通过构建内容创设生态,为元宇宙内容生产打造高效的生产力工具,重构并激活生产关系。

  内容创设生态既包括数据层、技术层及工具层的软件系统,这是构建与生成元宇宙数字内容的核心引擎;同时也包括开源开放、社群建设与运营等生态培育体系的搭建,通过创造生态效应进而重构并激活生产关系。

通过打造内容应用生态,为终端用户创造最大价值

  相较传统互联网,元宇宙更强调内容的应用价值,即帮助终端用户解决实际问题,要与用户的真实需求挂上钩,既包括提升用户体验,也包括提高应用侧效率,形成价值闭环。内容应用生态包含两大部分,一是生成的海量内容如何精准触达用户,满足用户需求;二是通过应用场景的感知和交互,形成实时反馈系统,帮助生产侧提升效率、持续创新和改进,为用户创造最大价值。

第二张图:三大核心抓手

应用抓手:反哺实体经济发展是目标

  元宇宙不只是独立且平行的虚拟世界,它的意义和价值还在于与真实世界的连接和交互,并赋能实体经济的发展,提高人们的生活体验。元宇宙作为信息革命的新发展阶段,它的使命便是在此:利用信息技术的升级和融合,不断拓展物理世界向虚拟世界映射的广度和深度,促进数据生产要素协同,提升实体经济的“做功”效率,改善人们的生活体验

技术抓手:AI驱动是关键

  首先,人工智能是元宇宙内容生成的强赋能者。其次,人工智能是虚实世界间的“破壁人”。第三,人工智能提升人机交互体验。

模式抓手:平台赋能是基础

  无论是AI模型生产、智能计算、网络连接等基础设施建设,还是元宇宙相关技术研发和攻关都需要投入大量的资金和人力资源,通过集中式建设、平台化赋能能够大幅降低使用者的边际成本,提高元宇宙生产效率。

第三张图:六大核心元素

  元宇宙的六大核心元素,包括三大基本元素“人”、“物”、“场”,以及三大关系元素“创造”、“连接”和“共生”。“人”、“物”、“场”是构成元宇宙生态的基本元素,由“创造”元素所定义,由“连接”元素所驱动,由“共生”元素所重塑,换言之:

“创造”元素通过代码的方式定义元宇宙中“人”、“物”、“场”的基本形态,创造出一个平行于真实世界的虚拟数字空间,并通过VR/AR等交互技术呈现在人们眼前。

“连接”元素通过算法的方式不仅可以激活“人”、“物”、“场”之间的关系,驱动元宇宙智能化发展,同时还可打破真实世界与虚拟世界的“次元壁”,进一步扩展元宇宙的内涵,从独立平行的娱乐元宇宙向虚实融合的产业元宇宙、城市元宇宙方向拓展。

“共生”元素通过生态的方式扩张了元宇宙世界的边界。“创造”与“连接”形成的元宇宙世界是一个庞大的、复杂的巨型系统,不由一家企业所垄断,而是由无数的创作主体和关联组织协同创作的结晶。与传统的链式价值传递不同,在元宇宙世界中,不同主体之间以共创、共享、共生的方式紧密协同,从而形成开放的、有机的生态系统。

  总体来说,具有“人”、“物”、“场”的创造和连接能力,通过共生方式构建元宇宙开放生态,同时以AI驱动为技术抓手,以平台化模式赋能经济高质量发展、提升人民生活美好生活体验,将是元宇宙产业发展之关键。

  新变革引领新趋势

趋势一:创作升级

  随着人工智能的发展,数字内容创作智能化水平将会不断提升。AIGC(AI Generated Content),即由人工智能创作或生成内容,将会成为产业未来主要生产力之一。低代码、零代码、自动化生成内容将是主要趋势,将大幅降低创作门槛及创作成本。原来只有行业专家才能使用的创作工具,未来每个人都能轻松使用,创作市场将从利基走向大众。

趋势二:计算升级

  算力是元宇宙发展的基石。元宇宙通过人工智能、AR/VR、物联网、区块链等核心技术的融合赋能产业、治理、科研三大板块,促进智能经济的高质量发展,而这些技术的应用将成为未来算力发展的核心驱动力。不仅带动对计算资源的巨大需求,同时,也将带来计算部署方式的结构性变革,因此,围绕智能(异构)计算(简称AIDC)的“云-边-端”协同模式将成为元宇宙计算升级的主要趋势。

趋势三:智能升级

  元宇宙将是一个复杂巨系统,不仅表现为超高并发的数据体量,由于信息维度的升级,信息复杂度也将呈现指数级上升,远远超出人脑计算极限。“基模型(Foundation Model)”被认为是解决复杂巨系统问题的重要途径之一。数字化广度和深度带来了复杂度的几何增加,各国在基模型上都投入了大量的资金和研发力量,BERT、DALL-E、GPT-3等基模型相继出现,AI科研正在经历一场范式改变,基模型竞争时代到来。

趋势四:体验升级

  随着信息技术的迭代,我们的五感(视觉、听觉、触觉、味觉、感觉)将被逐一的数字化,信息的维度也在逐步增加,使得数字内容不断的逼近现实的感官体验,更具有真实沉浸感;同时,人机交互也从间接交互(主要通过按钮、鼠标键盘等控制机器),到AR/VR媒介时代,我们可以通过手势、声音、体感(包括肢体运动、眼球动作和面部表情等)与机器进行更自然的直接交互;随着脑机接口技术的成熟,我们甚至可以直接用脑电波控制机器。总体而言,我们的体验会越来越好,也会越来越趋近真实。

趋势五:商业升级

  在元宇宙的发展趋势下,我们的社交、我们的商务,我们的信息获取方式,以及内容生产和消费都将会涌现出全新的创新模式假设一:“数字人助手”或将代替APP成为人们获取信息和服务的超级入口。假设二:场景化社交将成为元宇宙社交的主要形态,并在其上衍生出巨大的商业价值。假设三:沉浸式商业将是meta-commerce的主要形态。

趋势六:治理升级

  依托元宇宙技术内涵构建城市治理新范式,将改变城市规划、建设、管理和服务的底层逻辑,为城市治理注入新活力。通过打通并融合包括CIM、各大公共服务系统,城市物联感知等多源数据,打造城市数字复刻体,实现全域感知、精准映射、虚实交互和全局洞察。

趋势七:文明升级

  技术的发展是文明进化的动力。我们正处于从工业文明迈入数字文明的重要关口,新基建的广泛部署推动了信息技术的快速发展、数据要素的深度融合。这一进程不仅带来数字经济的蓬勃发展,也将推动人类文明迈向新台阶。因此,从技术角度看,元宇宙文明将是人类文明新的发展形态。

  技术的发展也要坚守伦理道德的底线。在新的文明发展阶段,我们要提出新的技术伦理,探索技术、个人、社会三者之间的平衡。不仅要做到技术本身的可用、可靠、可知、可控,让人们可以去信任它、使用它;同时还应做到技术的应用能为社会带来进步,为人类发展谋求福祉。它所创造的文明应是多样的、平等的、开放的和包容兼备的,符合人类命运共同体的价值理念。

成为VIP会员查看完整内容
0
46

【主要内容】本书分4部分,同时用函数式和传统方法介绍主要的基本算法和数据结构,数据结构部分包括二叉树、红黑树、AVL树、Trie、Patricia、后缀树、B树、二叉堆、二项式堆、斐波那契堆、配对堆、队列、序列等;基本算法部分包括各种排序算法、序列搜索算法、字符串匹配算法(KMP等)、深度优先与广度优先搜索算法、贪心算法以及动态规划。本书适合软件开发人员、编程和算法爱好者,以及高校学生阅读参考。 地址: https://github.com/liuxinyu95/AlgoXY

本书特色 【本书特色】

  1. 七年磨一剑,亚马逊中国高级研发人员重磅力作
  2. 函数式算法与常规算法对照解读
  3. 伪代码与多语言实现并存,充分发挥语言特性
  4. 涵盖C/C++、Haskell、Python、Scheme等
  5. 理论与实例结合,轻松学习算法与数据结构
  6. 内含ACM竞赛趣题和传统趣题,发现算法的乐趣

【技术大咖推荐】

算法是每个计算机专业学生的理论课、基础课、必修课,也是区分计算机爱好者与专业计算机从业人员的重要课程。现在市面上五花八门的算法书也很多,但是能把算法结合实际应用生动讲解出来的却凤毛麟角。刘新宇的这本《算法新解》让人眼前一亮,简明的文字配上插图和不同编程语言的实现,让算法学习变得轻松有趣。并且,书中的例子都特别贴近应用,电子字典、用户输入匹配等小应用让人感觉算法无处不在。对于每个例子,这本书也会循序渐进给出更加优化的算法,并力求让读者掌握一种解决问题的思路。虽然我在计算专业领域研究开发多年,在读了刘新宇的《算法新解》以后仍然感觉受益匪浅。我也希望本书的每一位读者,无论是刚入门的学生、有多年编程经验的技术人员,还是从事理论研究的科技人员,都能有所收获。——顾峥博士,LinkedIn高级工程师

《算法新解》七年磨一剑,作者笔耕不辍,几年来常在TopLanguage邮件列表中放出让大家校对,在程序书泛滥的这个时代尤显难能可贵。书中包含大量插图和公式,又结合C++、Haskell、Python、Scheme等多种编程语言实现,命令式、函数式兼顾,准确细致地描述了大量基本算法和习题。——宋方睿,谷歌软件工程师、《Haskell趣学指南》译者

从入行第一天起,我们就被告诫“不要重复造轮子”,但是现成的“轮子”总有一天会无法达到要求。硬件提升总也赶不上数据量的增加,产品人员总能提出让人发疯的新需求,这时我们只有理解原理,才能改进甚至发明可用的新“轮子”。请不要忘记我们的好奇心。离开了功利的驱使,单纯的获取知识,会是另一种愉悦的精神体验。在阅读这本书时,这种体验将始终伴随着你。——陈维扬,小米软件工程师 作译者介绍 【作者介绍】 刘新宇
1999年和2001年分别获得清华大学自动化系学士和硕士学位,之后长期从事软件研发工作。他关注基本算法和数据结构,尤其是函数式算法,目前就职于亚马逊中国仓储和物流技术团队。其GitHub地址:https://github.com/liuxinyu95/AlgoXY

第一部分  树 第1章 二叉搜索树:数据结构中的“hello world” 第2章 插入排序的进化 第3章 并不复杂的红黑树 第4章 AVL树 第5章 基数树:Trie和Patricia 第6章 后缀树  第7章 B树 第二部分 堆 第8章 二叉堆 第9章 从吃葡萄到世界杯:选择排序的进化 第10章 二项式堆、斐波那契堆和配对堆 第三部分 队列和序列 第11章 并不简单的队列 第12章 序列:最后一块砖 第四部分 排序和搜索 第13章 分而治之:快速排序和归并排序 第14章 搜索 

成为VIP会员查看完整内容
0
42

面向知识图谱的知识推理旨在通过已有的知识图谱事实,去推断新的事实,进而实现知识库的补全。近年来,尽管基于分布式表示学习的方法在推理任务上取得了巨大的成功,但是他们的黑盒属性使得模型无法为预测出的事实做出解释。所以,如何设计用户可理解、可信赖的推理模型成为了人们关注的问题。本文从可解释性的基本概念出发,系统梳理了面向知识图谱的可解释知识推理的相关工作,具体介绍了事前可解释推理模型和事后可解释推理模型的研究进展;根据可解释范围的大小,本文将事前可解释推理模型进一步细分为全局可解释的推理和局部可解释的推理;在事后解释模型中,本文回顾了推理模型的代表方法,并详细介绍提供事后解释的两类解释方法。此外,本文还总结了可解释知识推理在医疗、金融领域的应用。随后,本文对可解释知识推理的现状进行概述,最后展望了可解释知识推理的未来发展方向,以期进一步推动可解释推理的发展和应用。

http://www.jos.org.cn/jos/article/abstract/6522

知识图谱(Knowledge Graph)本质是一种语义网络,通常用 (头实体,关系,尾实体)/ ( ,r, t) h 这样 的三元组来表达事物属性以及事物之间的语义关系。自谷歌提出知识图谱概念以来,知识图谱已经为智能 问答、对话生成、个性化推荐等多个 NLP 任务领域提供了有力支撑。虽然目前的知识图谱中存在大量的实 体和事实数据,但是这样大规模的数据仍然不完整,大量缺失的三元组严重限制了这些下游任务的性能。知识推理,这一旨在根据一定的推理机制去预测图谱中缺失三元组的任务,也吸引了学术界越来越多的目光。

早在 2013 年,Li 等人[1] 提出利用表示学习的方法去做知识推理,通过将实体和关系映射到低维连续 的向量空间,将推理预测任务转化为实体与关系所关联的简单的向量/矩阵操作。鉴于该方法的自由度高、 可计算性好、推理效率高等优点,该类方法在近几年得到了广泛关注和发展,并且广泛的应用在推荐系统、 对话生成等互联网场景。在这些场景下,研究者们更多的关注如何提高知识推理的性能,忽略知识推理发 生错误时的风险问题。即便推理模型在这些场景下产生错误推理时,通常来说,并不会招致非常严重的后果。然而,在当今人工智能技术应用的大趋势下,知识推理不仅可以应用在上述互联网场景,而且越来越 多的被应用在和人类的生产生活息息相关的一些领域(例如,智能医疗[98,99,100]、军事[112] 、金融[90,111]、交 通运输[113,114]),这些领域往往对模型的安全性能要求较高,风险高度敏感。例如,在医疗领域,推理的可 靠性会关系到人的生命安全。通常来说,在这些领域,仅仅获得预测结果是不够的,模型还必须解释是怎 么获得这个预测的,来建立用户和推理模型之间的信任。

随着深度学习的发展,知识推理方法的模型结构越来越复杂,仅仅一个网络就可能包含几百个神经元、 百万个参数。尽管这些推理模型在速度、稳定性、可移植性、准确性等诸多方面优于人类,但由于用户无 法对这类模型里的参数、结构、特征产生直观理解,对于模型的决策过程和模型的推理依据知之甚少,对 于模型的决策过程知之甚少,不知道它何时会出现错误,在风险敏感的领域中,用户仍然无法信任模型的 预测结果。因此,为了建立用户和推理模型之间的信任,平衡模型准确率和可解释性之间的矛盾,可解释 性知识推理在近几年的科研会议上成为关注热点。

尽管有很多学者对知识推理领域进行了深入的研究,并从不同的角度(如分布式表示角度[120] 、图神 经网络角度[121] 、神经-符号角度[119] 等)对推理模型进行梳理和总结。然而,在推理模型的可解释性方面 却缺少深入的对比和总结。为了促进可解释知识推理的研究与发展,本文对现有的可解释推理模型进行了 系统梳理、总结和展望。本文首先阐述可解释性的定义和可解释性在推理任务中的必要性,并介绍常见的 可解释模型划分标准;然后,根据解释产生的方式,对现有的可解释知识推理模型进行总结和归类,并讨 论相关方法的局限性;接着,简单介绍可解释知识推理在金融领域和医疗领域的应用。最后,本文讨论可 解释知识推理面临的挑战以及可能的研究方向。

1 可解释的知识推理

在详细介绍现有的可解释知识推理模型之前,首先介绍知识推理的基本概念,接着对什么是可解释性 (Interpretability),以及为什么要在推理任务中注重可解释性进行介绍,最后对本文的划分标准做简要说明。

1.1 知识推理的基本概念

2012 年,谷歌正式提出知识图谱的概念,用于改善自身的搜索质量。知识图谱通常用 ( ,r, t) h 这样 的三元组表达实体及其实体之间的语义关系,其中 h 代表头实体, r 代表实体之间的关系, t 代表尾实体。例如(詹姆斯·卡梅隆,执导,泰坦尼克号)即是一个三元组,其中头实体和尾实体分别为“詹姆斯·卡梅隆” 和“泰坦尼克号”,“执导”是两个实体之间的关系。代表性的知识图谱,如 DBpedia[108] 、Freebase[53] 、 Wikidata[55] 、YAGO[107] 等,虽然包含数以亿计的三元组,但是却面临非常严重的数据缺失问题。据 2014 年的统计,在 Freebase 知识库中,有 75%的人没有国籍信息,DBpedia 中 60% 的人缺少没有出生地信息 [125] 。知识图谱的不完整性严重制约了知识图谱在下游任务中的效能发挥。因此,如何让机器自动基于知 识图谱中的已有知识进行推理,从而补全和完善知识图谱,成为了工业界和学术界都亟待解决的问题。

总的来说,面向知识图谱的知识推理实质上是指利用机器学习或深度学习的方法,根据知识图谱中已 有的三元组去推理出缺失的三元组,从而对知识图谱进行补充和完善。例如,已知(詹姆斯·卡梅隆,执导, 泰坦尼克号)和(莱昂纳多·迪卡普里奥,出演,泰坦尼克号),可以得到(詹姆斯·卡梅隆,合作,莱昂纳 多·迪卡普里奥)。知识推理主要包含知识图谱去噪[12] 和知识图谱补全(又称之为链接预测)[1,27,94,95]两个 任务[117] ,其中,知识图谱去噪任务专注于知识图谱内部已有三元组正确性的判断;而知识图谱补全专注 于扩充现有的图谱。根据要推理元素的不同,知识图谱补全任务可以进一步细分为实体预测和关系预测。其中,实体预测是指给定查询 ( ,r,?) h ,利用已有事实的关系,推理出另一个实体并由此构成完整三元组, 同理,关系预测则是指给定查询 ( ,?, t) h ,推理给定的头尾实体之间的关系。由于知识图谱中大多数三元组 都是正确的,知识图谱去噪任务通常采用对已有三元组进行联合建模并进一步判断特定三元组是否成立的 方法。在这种情况下,知识图谱补全任务可以转化为知识图谱去噪任务[123,124]。为此,在下面的内容里,本 文以知识图谱补全任务为中心,对相关的可解释性方法进行梳理和总结。

1.2 可解释性及其在知识推理中的必要性

目前学术界和工业界对于可解释性没有明确的数学定义[62] ,不同的研究者解决问题的角度不同,为 可解释性赋予的涵义也不同,所提出的可解释性方法也各有侧重。目前被广泛接受的一种定义由 Miller (2017)[2,42]所提出,指可解释性是人们能够理解决策原因的程度。如果一个模型比另一个模型的决策过程 更简单、明了、易于理解,那么它就比另一个模型具有更高的可解释性。

在某些情况下,我们不必关心模型为什么做出这样的预测,因为它们是在低风险的环境中使用的,这 意味着错误不会造成严重后果(例如,电影推荐系统),但是对于某些问题或任务,仅仅获得预测结果是 不够的。该模型还必须解释是怎么获得这个预测的,因为正确的预测只部分地解决了原始问题。通常来说, 以下三点原因推动了对可解释性的需求:

1、高可靠性要求。尽管可解释性对于一些系统来说并不是不可或缺的,但是,对于某些需要高度可靠 的预测系统来说很重要,因为错误可能会导致灾难性的结果(例如,人的生命、重大的经济损失)。可解释性可以使潜在的错误更容易被检测到,避免严重的后果。此外,它可以帮助工程师查明根 本原因并相应地提供修复。可解释性不会使模型更可靠或其性能更好,但它是构建高度可靠系统 的重要组成部分。

2、道德和法律要求。第一个要求是检测算法歧视。由于机器学习技术的性质,经过训练的深度神经网 络可能会继承训练集中的偏差,这有时很难被注意到。在我们的日常生活中使用 DNN 时存在公 平性问题,例如抵押资格、信用和保险风险评估。人们要求算法能够解释作出特定预测或判断的 原因,希望模型的解释能够使“算法歧视”的受害者诉诸人权。此外,推理模型目前也被用于新 药的发现和设计[124] 。在药物设计领域,除了临床测试结果以外,新药还需要通常还需要支持结 果的生物学机制,需要具备可解释性才能获得监管机构的批准,例如国家药品监督管理局 (NMPA)。

3、科学发现的要求。推理模型本身应该成为知识的来源,可解释性使提取模型捕获的这些额外知识成 为可能。当深度网络达到比旧模型更好的性能时,它们一定发现了一些未知的“知识”。可解释性 是揭示这些知识的一种方式。

1.3 本文的划分标准

根据不同的划分标准,知识推理模型可以被划分成不同的类别。其中,根据解释产生的方法,可以将 推理模型划分为两大类:事前可解释和事后可解释[41,62,96,97,102,118]。其中,事前可解释模型主要指不需要额 外的解释方法,解释蕴含在自身架构之中的模型。事后可解释性是指模型训练后运用解释方法进行推理过 程和推理结果的解释,解释方法自身是不包含在模型里面的。一种方法被看作能够对黑盒模型进行解释, 是指该方法可以:(1)通过可解释和透明的模型(例如,浅决策树、规则列表或者稀疏线性模型)对模型 的行为进行近似,可以为模型提供全局的可解释;(2)能够解释模型在特定输入样例上进行预测的原因;(3)可以对模型进行内部检查,了解模型的某些特定属性,譬如模型敏感性或深度学习中神经元在某一特 定决策中起到的作用[41] 。值得注意的是,可以将事后解释方法应用于事前可解释的模型上,例如,可以 从敏感性分析的角度对事前模型进行剖析。此外,根据可解释的范围大小----是否解释单个实例预测或整个 模型行为,可以将模型划分为局部可解释和全局可解释两大类[97,96];根据解释方法是否特定于模型,可以 将模型划分为特定于模型和模型无关两种类别[96] 。在接下来的内容里,本文按照解释产生的方式,对知 识推理模型进行总结和归类。

成为VIP会员查看完整内容
0
41

这是一个动手操作的初学者指南,它能让你快速地构建游戏,所有的东西都有很棒的Unity引擎!您将快速通过基础知识,并使用您现有的编码技能来创建2D、3D和AR/VR游戏。

在Unity In Action,第三版,你将学习如何: 创造能够奔跑、跳跃和撞到东西的角色 制作3D第一人称射击游戏和第三人称动作游戏 构建2D卡牌游戏和横向卷轴平台游戏 带有AI的脚本敌人 通过导入模型和图像来改善游戏图像 为游戏设计直观的用户界面 播放音乐和空间感知音效 将你的游戏连接到互联网上进行在线游戏 将你的游戏部署到桌面、手机和网页上

成千上万的新游戏开发者选择了Joe Hocking的《Unity in Action》作为他们掌握Unity的第一步。从一个新游戏开发项目的初始基础开始,你将很快开始编写自定义代码,而不是点击预先编写好的脚本。这个完全更新的第三版包含了完全更新的图形,Unity的最新功能,以及增强和虚拟现实工具包的覆盖。您将从基础上掌握Unity工具集,学习从应用程序程序员到游戏开发者的技能。

https://www.manning.com/books/unity-in-action-third-edition

成为VIP会员查看完整内容
0
39

贝叶斯统计这个名字来源于托马斯·贝叶斯(Thomas Bayes, 1702-1761),一位长老会牧师和业余数学家,他首次推导出了我们现在所知的贝叶斯定理,该定理在1763年(死后)发表。然而,第一个真正发展贝叶斯方法的人是皮埃尔-西蒙·拉普拉斯(1749-1827),因此,也许用拉普拉斯统计学来描述它会更正确一些。尽管如此,我们将尊重斯蒂格勒的同名法则,也将坚持传统,并在本书的其余部分继续讨论贝叶斯方法。从贝叶斯和拉普拉斯(以及其他许多理论)的先驱时代到今天,发生了很多事情——新思想被开发出来,其中许多思想是由计算机激发或使之成为可能的。这本书的目的是为这个主题提供一个现代的视角,从基本原理来构建一个坚实的基础到现代贝叶斯工作流和工具的应用。

https://bayesiancomputationbook.com/welcome.html

我们写这本书是为了帮助贝叶斯初学者成为中级建模者。我们并不是说这在你读完这本书后就会自动发生,但我们希望这本书能引导你走向一个富有成效的方向,特别是如果你彻底阅读它,做练习,应用书中的思想到你自己的问题,并继续从别人那里学习。

特别指出,这本书的目标读者是对应用贝叶斯模型解决数据分析问题感兴趣的贝叶斯从业人员。通常学术界和工业界是有区别的。

我们的目的是在本书完成后,您不仅会熟悉贝叶斯推理,而且会对贝叶斯模型进行探索性分析,包括模型比较、诊断、评估和结果的交流。这也是我们的意图,从现代和计算的角度来教授所有这一切。对我们来说,如果我们采用计算的方法,贝叶斯统计可以更好地理解和应用,这意味着,例如,我们更关心经验检验我们的假设是如何被违反的,而不是试图证明假设是正确的。这也意味着我们使用许多可视化。建模方法的其他含义将随着页面的进展而变得清晰。

最后,正如书名中所述,我们在本书中使用Python编程语言。更具体地说,我们将主要关注PyMC3[1]和TensorFlow Probability (TFP)[2],作为模型构建和推理的主要概率编程语言(pls),并使用ArviZ作为主要的库来探索性分析贝叶斯模型[3]。在本书中,我们不打算对所有Python ppl进行详尽的调研和比较,因为有很多选择,而且它们发展得很快。我们将重点放在贝叶斯分析的实际方面。编程语言和库只是我们到达目的地的桥梁。

尽管本书选择的编程语言是Python,其中选择的库很少,但我们所涉及的统计和建模概念是语言和库无关的,在许多计算机编程语言中都可以使用,比如R、Julia和Scala等等。具有这些语言知识但不了解Python的积极读者仍然可以从这本书中受益,特别是如果他们找到了支持他们所选择语言中等效功能的合适包或代码,以获得实际实践。此外,作者还鼓励其他人将本文中的代码示例翻译成其他语言或框架。如果您愿意,请与我们联系。

第一章提供了对贝叶斯推理的基本和中心概念的复习或快速介绍。本章中的概念将在本书的其余部分重新讨论和应用。

第二章介绍了贝叶斯模型的探索性分析。也就是说,引入了贝叶斯工作流中的许多概念,但这些概念本身并不是推理。在本书的其余部分中,我们将应用和重温本章中的概念。

第三章是专门介绍了一个特定的模型体系结构。它提供了线性回归模型的介绍,并为接下来的五章建立了基本的基础。第三章还全面介绍了本书中使用的主要概率编程语言PyMC3和TensorFlow Probability。

第四章扩展了线性回归模型,并讨论了更高级的主题,如稳健回归、层次模型和模型重参数化。本章使用PyMC3和TensorFlow Probability。

第五章介绍了基函数,特别是作为线性模型扩展的样条,它允许我们构建更灵活的模型。本章使用PyMC3。

第六章重点介绍时间序列模型,从时间序列的回归建模到更复杂的模型,如ARIMA和线性高斯状态空间模型。本章使用TensorFlow Probability。

第七章介绍了贝叶斯可加回归树的非参数模型。我们讨论了这个模型的可解释性和可变重要性。本章使用PyMC3。

第八8章将关注近似贝叶斯计算(ABC)框架,它对于我们没有明确的可能性公式的问题是有用的。本章使用PyMC3。

第九章对端到端贝叶斯工作流进行了概述。它展示了商业环境中的观察性研究和研究环境中的实验性研究。本章使用PyMC3。

第十章深入探讨了概率编程语言。本章将介绍各种不同的概率编程语言。

成为VIP会员查看完整内容
0
39

来源: 腾讯研究院

随着各界对 AI 伦理的日益重视,AI 系统的可解释性也逐渐成为热点,甚至上升到立法和监管的要求。许多人工智能领域的专家都把 2021 年视为“AI 可解释元年”,在这一年,不仅政府出台相应的监管要求,国内外许多科技公司,譬如谷歌、微软、IBM、美团、微博、腾讯等,也都推出了相应的举措。 在这一背景下,腾讯研究院、腾讯天衍实验室、腾讯优图实验室、腾讯 AI Lab 等组成的跨学科研究团队,历时近一年,完成业内首份《可解释AI发展报告 2022——打开算法黑箱的理念与实践》,全面梳理可解释AI的概念、监管政策、发展趋势、行业实践,并提出未来发展建议。

在 1 月 11 日线上举办的腾讯科技向善创新周“透明可解释 AI 论坛”上,由腾讯研究院秘书长张钦坤、腾讯优图实验室人脸技术负责人丁守鸿进行了发布。

学界和业界专家普遍认为,《可解释AI发展报告 2022》非常必要,也非常及时。这份报告开了个好头,推动人工智能向着可解释这个极为重要的方向发展。

透明性与可解释性,连同公平性评价、安全考虑、人类 AI 协作、责任框架,都是 AI 领域的基本问题。我们需要找到一个平衡的可解释 AI 的路径,来打造可信、负责任 AI,确保科技向善。具体来说,在设计可解释性要求时,需要考虑可解释性要求和其他重要的伦理价值和目的(诸如公平、安全、隐私、网络安全等)之间的平衡。因为可解释性本身不是目的,而是实现其他目的的手段。所以在设计可解释性要求时,首先需要考虑想要实现什么目标,其次需要思考在特定情境下如何更好地匹配这些目标。 第一,立法和监管宜遵循基于风险的分级分类分场景治理思路,在鼓励科技创新、追求科技向善、维护社会公共利益之间找到平衡点。首先,披露 AI 算法模型的源代码是无效的方式,不仅无助于对 AI 算法模型的理解,反倒可能威胁数据隐私、商业秘密以及技术安全;其次,不宜不加区分应用场景与时空场合地要求对所有的算法决策结果进行解释;再次,侧重应用过程中的披露义务;最后,避免强制要求披露用来训练AI模型的数据集,这不仅不具有可操作性,而且容易与版权保护冲突,侵犯用户的数据隐私或违反合同义务。

第二,探索建立适应不同行业与场景的可解释性标准。具体可以从三个方面来着手:一是针对 AI 系统的一些示范性应用场景提供可解释性标准的指南,给行业和企业带来有益参考;二是发布 AI 可解释最佳实践做法案例集、负面做法都是值得尝试的,包括用以提供解释的有效的用户界面,面向专家和审计人员的记录机制(例如详细的性能特征,潜在用途,系统局限性等);三是创建一个说明不同级别的可解释性的图谱,这个图谱可被用来给不同行业与应用场景提供最小可接受的衡量标准。

第三,探索可解释的替代性机制,多举措共同实现可信、负责任 AI。虽然可解释性是完善 AI 技术的最优解之一,但并非所有的AI系统及其决策都可以解释。当 AI 系统过于复杂,导致难以满足可解释性要求,或是导致解释机制失灵、效果不乐观时,就要积极转变规制的思路,探索更多元化、实用化的技术路径。目前在技术上主张的是采取适当的替代性机制,如第三方标记反馈、用户申诉和人工审查、常规监测、审计等,这些替代性机制可以对 AI 算法的决策起到监督和保障作用。

第四,增强算法伦理素养,探索人机协同的智能范式。开发者和使用者是 AI 生态的核心参与者,需要提升他们的算法伦理素养。一方面,加强科技伦理教育,提升 AI 从业人员的算法伦理素养;另一方面,通过教育、新闻报道、揭秘等方式提高公众的算法素养,构建和谐的人机协同关系。

最后,引导、支持行业加强可解释 AI 研究与落地。由于 AI 技术的快速发展迭代,可解释 AI 的工作应主要由企业与行业主导,采取自愿性机制而非强制性认证。因为市场力量(market force)会激励可解释性与可复制性,会驱动可解释 AI 的发展进步。企业为维持自身的市场竞争力,会主动提高其 AI 相关产品服务的可解释程度。

长远来看,政府、社会、企业、行业、科研机构、用户等主体需要共同探索科学合理的可解释 AI 落地方案及相关的保障与防护机制,推动科技向善。

成为VIP会员查看完整内容
0
39

许多人觉得统计分析令人费解。为什么? 因为它需要新的思维方式。你又如何理解这些新的思维方式呢? 为了正确理解统计分析,你需要理解它的一些关键基础。阅读教科书是行不通的,因为教科书没有关注基础,而且它们涵盖了太多的内容和细节,读者必然会只见树木不见森林。我有很多方法来补救这种状况。我做的第一件事是关注一个每个人都应该熟悉的应用领域。第二,我关注最直接的调研问题和回答——你同意还是不同意?你赞成还是不赞成?我所做的第三件事是关注那些对于理解统计分析的本质和对结果的解释至关重要的基础,无论是民意调研结果还是药物试验结果。第四,我用了很多插图。即使你以前学过统计学课程,即使你知道执行统计分析的机制,你也会从这些基础中受益。

统计值的抽样分布是一切的关键。这就是为什么封面上有抽样分布的插图,这本书中也有抽样分布的插图。

我们从字面上和比喻上画的线定义了一个区间,用来决定一个假设是否应该被拒绝。你可以在封面上看到两条间隔线,叠加在抽样分布上。

两个关键方面——方差样本大小——决定了抽样分布的形状和区间的宽度。我们将看到这些东西是如何相互作用的。

有了抽样分布和置信区间,我们可以对核心内容进行统计分析。但在解释结果时,我们确实需要小心。

某些假设可以被接受,但另一些假设只能被拒绝。这两者之间有一个微妙但重要的区别。

统计显著性的意义是有限的,它并不意味着存在有意义的现实世界的影响。

我们会犯一些我们不知道自己犯过的错误,可能永远也不会知道。但我们可以试着限制它们可能发生的频率。

减少一种错误的可能性会增加另一种错误的可能性。我们可以减少两者的可能性,但那需要额外的费用。

当我们使用统计分析方法而不满足其假设时,奇怪的事情发生了。

成为VIP会员查看完整内容
0
38

本书不仅仅只是一本算法题解书,更是一本算法与数据结构基础知识的讲解书。本书易于理解,没有大跨度的思维跳跃,书中使用部分图示、例子来帮助理解。本书先从基础的数据结构和算法开始讲解,再针对不同分类的数据结构和算法,进行具体题目的讲解分析。让读者可以通过「算法基础理论学习」和「编程实战学习」相结合的方式,彻底的掌握算法知识。

本书采用 Python 作为编程语言,要求学习者已有基本 Python 程序设计的知识与经验。

「算法和数据结构」 是计算机程序设计的重要理论技术基础,但很多程序员忽略了它的重要性。在日常开发工作中,最多的情况是使用成熟的开发框架,利用已经封装好的接口,进行 CRUD(增删改查)操作,似乎很少会需要自己实现相应的数据结构和算法。

况且工作中用到的编程语言、开发框架、开发平台,更新速度堪比摩尔定律。以前端为例,React 还没学明白呢,Vue 就火起来了。Vue 2.0 的文档还在研究呢,Vue 3.0 就发布了。很多时候,连新的技术还学不过来呢,哪还有时间去专门研究算法和数据结构呢。

诚然,语言、技术、框架固然重要,但背后的计算机算法和理论更为重要。因为语言、技术、框架的更新日新月异,但万变不离其宗的是背后的算法和理论,例如:数据结构、算法、编译原理、计算机网络、计算机体系结构 等等。任凭新技术如何变化,只要掌握了这些计算机科学的核心理论,就可以见招拆招,让自己立于不败之地。从此无论是看懂底层系统的设计原理、框架背后的设计思想,还是学习新技术、提升工作实战的效率,都可以做到得心应手。

学习数据结构与算法的关键,在于掌握其中的思想和精髓,学会解决实际问题的方法。

本书采用算法与数据结构相结合的方法,把内容分为如下 4 部分:

第一部分是序言(第 00 章):介绍数据结构与算法的基础知识、算法复杂度、LeetCode 的入门和攻略,为后面的学习打好基础。

第二部分是数据结构篇(第 01 ~ 08 章):每一章对应一种数据结构,这个部分用来介绍最常见、最重要的数据结构,以及与该数据结构相关的算法知识。

第三部分是基础算法篇(第 09 章):这一章用来介绍基本的算法思想。包括枚举、递归、贪心、分治、回溯、动态规划,以及位运算。

第四部分是 LeetCode 题解篇(第 10 章):这一章用来讲解我在 LeetCode 上刷过的所有题目。可按照对应题号进行检索和学习。

在本书构思与写作阶段,很多朋友给我提出了有益的意见和建议。这些意见和建议令我受益匪浅。感谢在本书著作准备过程中,帮助过我的朋友,以及一起陪我刷题打卡的朋友,还有提供宝贵意见的读者。感谢为本书提供课程合作和宣传的 DataWhale 开源组织。谢谢诸位。

成为VIP会员查看完整内容
0
34
登录查看的更多。 返回顶部
本周荟萃主题
深度学习
机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。
机器学习
“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。”

——中文维基百科
强化学习
强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。
推荐系统
推荐系统,是指根据用户的习惯、偏好或兴趣,从不断到来的大规模信息中识别满足用户兴趣的信息的过程。推荐推荐任务中的信息往往称为物品(Item)。根据具体应用背景的不同,这些物品可以是新闻、电影、音乐、广告、商品等各种对象。推荐系统利用电子商务网站向客户提供商品信息和建议,帮助用户决定应该购买什么产品,模拟销售人员帮助客户完成购买过程。个性化推荐是根据用户的兴趣特点和购买行为,向用户推荐用户感兴趣的信息和商品。随着电子商务规模的不断扩大,商品个数和种类快速增长,顾客需要花费大量的时间才能找到自己想买的商品。这种浏览大量无关的信息和产品过程无疑会使淹没在信息过载问题中的消费者不断流失。为了解决这些问题,个性化推荐系统应运而生。个性化推荐系统是建立在海量数据挖掘基础上的一种高级商务智能平台,以帮助电子商务网站为其顾客购物提供完全个性化的决策支持和信息服务。
卷积神经网络
在深度学习中,卷积神经网络(CNN或ConvNet)是一类深度神经网络,最常用于分析视觉图像。基于它们的共享权重架构和平移不变性特征,它们也被称为位移不变或空间不变的人工神经网络(SIANN)。它们在图像和视频识别,推荐系统,图像分类,医学图像分析,自然语言处理,和财务时间序列中都有应用。
命名实体识别
命名实体识别(NER)(也称为实体标识,实体组块和实体提取)是信息抽取的子任务,旨在将非结构化文本中提到的命名实体定位和分类为预定义类别,例如人员姓名、地名、机构名、专有名词等。
机器翻译
机器翻译,又称为自动翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。它是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。
计算机视觉
计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。
新闻
新闻,是指报纸、电台、电视台、互联网等媒体经常使用的记录与传播信息的 [2] 一种文体,是反映时代的一种文体。新闻概念有广义与狭义之分。广义上:除了发表于报刊、广播、互联网、电视上的评论与专文外的常用文本都属于新闻,包括消息、通讯、特写、速写(有的将速写纳入特写之列)等等; [3] 狭义上:消息是用概括的叙述方式,以较简明扼要的文字,迅速及时地报道附近新近发生的、有价值的事实,使一定人群了解。新闻一般包括标题、导语、主体、背景和结语五部分。前三者是主要部分,后二者是辅助部分。写法以叙述为主兼或有议论、描写、评论等。新闻是包含海量资讯的新闻服务平台,真实反映每时每刻的重要事件。您可以搜索新闻事件、热点话题、人物动态、产品资讯等,快速了解它们的最新进展。
图灵奖
图灵奖(A.M. Turing Award,又译“杜林奖”),由 美国计算机协会(ACM)于1966年设立,又叫“A.M. 图灵奖”,专门奖励那些对计算机事业作出重要贡献的个人。其名称取自计算机科学的先驱、英国科学家 阿兰·麦席森·图灵
微信扫码咨询专知VIP会员