数学是一切科学的基础,是人类探索自然最为重要的语言。诺贝尔奖得主费曼曾说:「如果没有数学语言,宇宙似乎是不可以描述的。」人工智能领域也不例外。
以 AI 技术中的机器学习及其分支深度学习为例,线性代数、概率论、统计学、微积分、信息论等数学概念都需要扎实掌握。可以说,机器学习以统计学和计算机科学为基础,以数学描述模型、指导模型为核心。事实上,常微分神经网络、Performer 、变分自编码器等很多优秀的模型,都是从数学角度推导出某些性质,进而构建整个模型。与此同时,模型结构与参数的性质、损失函数的收敛区间、参数空间的几何特性、最优化方法的梯度更新过程等等,都离不开数学,它是我们打开模型这一「黑盒」最为重要的工具。
人工智能技术与数学的融合是最为自然的,数学之外,在生物学、物理、化学、材料、地质等多领域,以深度学习为代表的AI与基础科学相互影响并共同进步。
为更好地促进学术交流,尤其是交叉学科和前沿工作的同行交流,机器之心与中科院自动化研究所与联合举办「人工智能×基础科学系列论坛」第二期将于5月25日在线上举办。
本次线上论坛以「深度学习中的数学优化问题」为主题,特邀北京大学数学科学学院教授李铁军主持,多位领域专家共同分享交流,日程如下:
李铁军:北京大学数学科学学院教授,国家自然科学基金委杰出青年基金及优秀青年基金获得者,入选教育部「新世纪优秀人才」支持计划。研究领域为随机模型及算法、机器学习的数学理论与算法。在单细胞转录组数据分析、复杂网络的模型约化、生物体系反应随机动力学、稀有事件及能量景观等领域做出了重要成果。在包括 Nature Comm、PNAS、 PRX、 JCP、SIAM 系列等重要学术期刊共发表学术论文六十余篇。
嘉宾简介:张兆翔,中国科学院自动化研究所研究员、博导,教育部长江学者,国家万人计划青年拔尖人才。主要研究方向包括脑启发的神经网络建模、视觉认知学习等,在 TPAMI、IJCV、JMLR、CVPR 等本领域顶刊顶会发表论文100余篇,担任或曾担任 IEEET-CSVT、Patten Recognition 等知名期刊编委,是 CVPR、ICCV、AAAI、IJCAI、ACM MM 等知名国际会议的领域主席(Area Chair)。
分享背景:近年来,以深度学习为代表的人工智能方法在感知、交互与决策等问题上取得了长足的进步,在部分任务上甚至媲美乃至超越人类的性能。一方面,深度学习作为机器学习领域的热点问题得到广泛关注,在性能上具有独到优势。另一方面,很多研究者又认为深度学习是一个黑盒模型,模型的设计,参数的选择往往依赖经验,缺乏理论性。我们在本报告中着重探讨如何面对不同的应用问题,从数学优化的视角加以形式化,进而指导深度神经网络的建模。事实证明,深度神经网络的结构设计和参数选择均有据可循,均可以从数学优化中汲取营养,从传统机器学习中寻求借鉴。
分享摘要:本报告首先探讨数学优化与深度学习之间关系;进而给出当前工作中一系列从数学优化中得到启发构建神经网络的案例;最后会介绍本课题组开展的若干代表性工作。这些工作都呼应了数学优化思想对于深度神经网络结构设计与参数选择的指导,都在具体应用问题上验证了所提方法的优越性。
嘉宾简介:李阳阳,中国科学院数学与系统科学研究院助理研究员,研究方向为几何机器学习基础理论,包括流形学习、几何流学习、几何深度学习等。师从陆汝钤院士,2020年获得中国科学院优秀博士学位论文奖,近五年发表学术论文10余篇。
分享背景:在信息快速发展的现代社会,最具有价值的,最核心的宝藏是数据。在现实生活中,我们通过目前测量手段获取的数据,它们的底层结构是非欧空间的。当前的深度学习缺乏数学理论上的可解释性,以及大数据呈现出规模大、种类多、可变性强、产生速度快等复杂结构特点,限制了一些重要领域的发展。流形和图作为非欧几何数据集的两种典型,在人工智能中扮演着至关重要的角色,传统的欧氏几何已经无法阐释这类数据的内嵌规律。由此针对大规模非欧结构数据集,结合深度学习,几何深度学习的概念被提出。它是试图将网格化的深度神经网络模型推广到非欧几何领域(流形和图)的新兴技术的总称。
然而,目前在几何深度学习领域,仍存在一些理论及方法的不足尚未解决:如缺乏几何结构信息、缺乏非欧度量规则、缺乏理论可解释性等。如何从微分几何理论出发,面向非欧结构数据集,建立具有可解释性的几何学理论和方法,是当前人工智能领域的研究难点之一,急需数学理论的突破。
分享摘要:本报告围绕数据集的非欧曲率信息展开,共介绍两部分工作:几何流学习以及几何深度学习。首先介绍从数据集出发,构建新的离散几何流方程,学习非欧数据集的黎曼度量表示。其次介绍几何深度学习工作,包括基于几何流的深度度量学习算法,以及基于几何流的图神经网络方法。
嘉宾简介:鬲融,杜克大学三一文理学院计算机科学系副教授。他的研究兴趣集中在理论计算机科学和机器学习领域。因研究项目《非凸函数的优化前景——迈向可证明的神经网络算法》(Optimization Landscape for Non-convex Functions – Towards Provable Algorithms for Neural Networks)获得美国国家科学基金会杰出青年教授奖(NSF CAREER Award),2019 年获得斯隆奖学金。加入杜克大学任教前,在微软新英格兰研发中心从事博士后研究。博士毕业于普林斯顿大学。
分享摘要:过参数化在神经网络优化中起着重要作用,其拥有的参数远超表示数据所需的参数量。当前大多数关于过参数化的研究可归为两类:Neural Tangent Kernel(NTK)和平均场。NTK 分析收敛性强,但一般泛化能力较差,无法从数据中学习特征;平均场分析虽然可以从数据中学习特征,但现有研究往往需要无限乃至指数量级的神经元。本次演讲中,我将讨论我们近期在理解带有多项式个神经元的平均场优化问题方面的一些探索,并讨论这些工作中共通的思想。
相关链接:
Understanding Deflation Process in Over-parametrized Tensor Decomposition,https://arxiv.org/abs/2106.06573
A Local Convergence Theory for Mildly Over-Parameterized Two-Layer Neural Network,https://arxiv.org/abs/2102.02410
嘉宾简介:马腾宇,斯坦福大学计算机科学与统计学系助理教授。先后在清华大学和普林斯顿大学获得本科和博士学位。他的研究兴趣包括机器学习和算法相关的课题,例如深度学习及其理论、非凸优化、深度强化学习、表示学习和高维统计。他获得的荣誉包括 ACM 博士论文奖荣誉提名奖、斯隆奖学金和美国国家科学基金会杰出青年教授奖(NSF CAREER Award)。
分享摘要:一般认为,优化器隐性正则化效果是过参数化的深度学习模型的泛化机制(其泛化性能优于NTK机制)。本次演讲中,我将讨论沿此思路所得到的一些结论,包括初始学习率和随机性的影响,以及近期关于 ReLU 网络设计技巧方面的一些工作。
相关链接:
Label Noise SGD Provably Prefers Flat Global Minimizers,https://arxiv.org/abs/2106.06530
Shape Matters: Understanding the Implicit Bias of the Noise Covariance,https://arxiv.org/abs/2006.08680
观看方式
直播间:关注中科院自动化所哔哩哔哩直播间或机器之心机动组视频号,北京时间5月25日9:40开播。
中科院自动化所哔哩哔哩直播间👇
机器之心机动组视频号👇
交流群:本次直播有QA环节,欢迎加入本次直播交流群探讨交流。
机器之心与中科院自动化研究所与联合举办「人工智能×基础科学系列论坛」第一期以「受物理启发的深度学习」为主题,特邀清华大学智能产业研究院(AIR)助理教授黄文炳主持,中科院理论物理研究所研究员张潘,中国科学院自动化所副研究员王闯,加州大学圣地亚哥分校计算机科学与工程系助理教授虞琦(Rose Yu),宾夕法尼亚大学化学和生物分子工程系助理教授陆路(Lu Lu)共同分享交流。
点击阅读原文,观看精彩回放。
欢迎后台留言、推荐您感兴趣的话题、内容或资讯!
如需转载或投稿,请后台私信。