报告题目: Gradient Descent Finds Global Optima for Overparametrized Neural Networks

报告摘要: 本篇报告介绍了深度神经网络的基础,以及神经网络中的最优解问题,我将通过实验数据来进行详细的介绍梯度下降的全局最优问题。

邀请嘉宾: 邀请嘉宾:王立威,北京大学信息科学技术学院教授。主要从事机器学习理论研究。在机器学习国际权威期刊会议发表高水平论文100余篇。担任机器学习与计算机视觉顶级期刊IEEE TPAMI编委。多次担任国际机器学习旗舰会议NeurIPS (NIPS)与ICML领域主席。入选AI’s 10 to Watch,是该奖项自设立以来首位获此荣誉的中国学者。获得首届国家自然科学基金优秀青年基金。带领团队获得首届天池AI医疗大赛决赛冠军。

成为VIP会员查看完整内容
Optimization for Overparametrized Deep Neural Networks.pdf
22

相关内容

【课程推荐】 深度学习中的几何(Geometry of Deep Learning)
专知会员服务
54+阅读 · 2019年11月10日
预告 | CSIG图像图形学科前沿讲习班:图神经网络
分布式智能计算系统前沿
中国计算机学会
17+阅读 · 2019年10月8日
SFFAI10 报名通知 | 优化算法论坛
人工智能前沿讲习班
4+阅读 · 2018年11月19日
AI综述专栏 | 深度神经网络加速与压缩
人工智能前沿讲习班
30+阅读 · 2018年10月31日
干货|深度神经网络(DNN)反向传播算法(BP)
全球人工智能
7+阅读 · 2018年1月12日
Optimization for deep learning: theory and algorithms
Arxiv
102+阅读 · 2019年12月19日
Hardness-Aware Deep Metric Learning
Arxiv
6+阅读 · 2019年3月13日
Deep Randomized Ensembles for Metric Learning
Arxiv
4+阅读 · 2018年9月4日
Arxiv
3+阅读 · 2018年6月18日
Arxiv
8+阅读 · 2018年5月15日
VIP会员
相关VIP内容
【课程推荐】 深度学习中的几何(Geometry of Deep Learning)
专知会员服务
54+阅读 · 2019年11月10日
微信扫码咨询专知VIP会员