本文约351字,建议阅读1分钟
本文介绍了
9月27日英国伯明翰大学计算机学院讲师雷云文老师带来的分享——随机梯度方法的学习理论。
9月27日晚 7:30-8:15
AI TIME特别邀请了英国伯明翰大学计算机学院讲师雷云文老师,给大家带来分享——随机梯度方法的学习理论
雷云文:
于2014年在武汉大学获得博士学位。他现在是伯明翰大学计算机学院的讲师。此前,他是凯撒斯劳滕工业大学的洪堡研究员,南方科技大学的研究助理教授,香港城市大学的博士后研究员。雷博士的研究兴趣包括统计学习理论和优化。他在一些著名的期刊和会议上发表了论文,包括ACHA, TIT, TPAMI, JMLR, ICML, NeurIPS, ICLR等。
报告简介:
Stochastic gradient descent (SGD) has become the workhorse behind many machine learning problems. Optimization and estimation errors are two contradictory factors responsible for the statistical behavior of SGD. In this talk, we report our generalization analysis of SGD by considering simultaneously the optimization and estimation errors. We remove some restrictive assumptions in the literature and significantly improve the existing generalization bounds. We also generalize our results to other problem settings such as pairwise learning and minimax problems.