报告题目: Discreteness in Neural Natural Language Processin
报告摘要: 本教程对神经NLP离散化过程提供了全面的介绍。首先,我们将简要介绍基于NLP的深度学习的背景,指出自然语言普遍存在的离散性及其在神经信息处理中的挑战。特别地,我们将集中在这样的离散性如何在一个神经网络的输入空间、潜在空间和输出空间中发挥作用。在每个部分中,我们将提供示例,讨论机器学习技术,并演示NLP应用程序。
*邀请嘉宾: Lili Mou博士是阿尔伯塔大学计算机科学系的助理教授。Lili分别于2012年和2017年在北京大学EECS学院获得了学士和博士学位。之后,他在滑铁卢大学(University of Waterloo)担任博士后,并在Adeptmind(加拿大多伦多的一家初创公司)担任研究科学家。他的研究兴趣包括应用于自然语言处理以及编程语言处理的深度学习。他在顶级会议和期刊上都有出版物,包括AAAI,ACL,CIKM,COLING,EMNLP,ICASSP,ICML,IJCAI,INTERSPEECH,NAACL-HLT和TACL(按字母顺序)。
周浩是Bytedance AI实验室的研究员 ,从事自然语言处理。2017年获得南京大学计算机科学博士学位。他的研究兴趣是机器学习及其在自然语言处理中的应用。目前,他专注于自然语言生成的深度生成模型。
李磊博士是今日头条的研究科学家和今日头条实验室的主任。Lei拥有上海交通大学计算机科学与工程学士学位(ACM类)和博士学位。分别从卡内基梅隆大学获得计算机科学博士学位。他的有关挖掘共同演化时间序列的快速算法的论文工作被ACM KDD授予最佳论文奖(排名提高)。在加入头条之前,他曾在百度的硅谷深度学习研究所担任首席研究科学家(“少帅学者”)。在此之前,他曾在Microsoft Research(亚洲和Redmond),Google(Mountain View)和IBM(TJ Watson Reserch Center)工作过。在加入百度之前,他曾在加州大学伯克利分校的EECS部门担任博士后研究员。他的研究兴趣在于深度学习,统计推断,自然语言理解和时间序列分析。他曾在ICML 2014,ECML / PKDD 2014/2015,SDM 2013/2014,IJCAI 2011/2013/2016,KDD 2015 / 2016、2017 KDD Cup联合主席的程序委员会中任职,并在2014年暑期学校担任讲师促进机器学习的概率编程研究。他发表了30多篇技术论文,并拥有3项美国专利。