AI 科技评论联合复旦大学,推出「ACL 2020 - 复旦大学系列论文解读」。
为促进学术交流,让更多师生及时了解最新前沿研究,AI科技评论联合复旦大学,重磅推出「ACL 2020 -复旦大学系列论文解读」。我们将在4月25-27日,连续三天进行 3 场直播,其中包含 5 篇 ACL 论文以及复旦大学在相关方面的研究进展。
福利放送:在每场直播中,我们会挑出两位幸运听众,寄送一本复旦大学邱锡鹏教授新书《神经网络与深度学习》(被誉为“蒲公英书”)。
此书已有Github版(https://nndl.github.io),各位也可以去下载电子版本阅读。
ACL 2020-复旦大学系列论文解读 · 第二期
直播时间:2020年4月26日(周日)晚20:00整
1)Simplify the Usage of Lexicon in Chinese NER
2)Chinese NER Using Flat-Lattice Transformer
复旦大学计算机学院在读硕士生,导师张奇教授、黄萱菁教授。研究方向为信息抽取。
李孝男,西电大四学生,复旦大学计算机学院2020级准博士生,导师邱锡鹏教授。
命名实体识别(Named Entity Recognition,NER)是自然语言处理中最基础的任务之一,对很多下游任务来说必不可少。但在中文里,NER与分词耦合在了一起,结合词典的中文命名实体识别能够有效解决词级别和字级别中文命名实体识别的问题。本次我们将分享这一领域的相关工作,并介绍我们的工作:1、简化中文命名实体识别中的词汇使用;2、使用Flat Lattice Transformer的中文命名实体识别。
ACL 2020-复旦大学系列论文解读 · 第三期
直播时间:2020年4月27日(周一)晚20:00整
1)Evaluating and Enhancing the Robustness of Neural Network-based Dependency Parsing Models with Adversarial Examples
复旦大学软件学院2018级在读硕士生,导师郑骁庆教授,研究方向为文本对抗供给与防御,模型鲁棒性等问题。
对抗样本问题的存在使得深度学习模型在应用落地上存在大量的潜在风险,对抗样本已经在计算机视觉领域取得了不少研究成果,包括多种攻击与防御方法,最终目的是为了提高深度学习模型的鲁棒性。在自然语言处理领域,与对抗样本相关的研究较少,本次分享从文本对抗样本问题出发,分析主要做法、存在问题,并将其拓展到依存句法领域。
ACL 2020原定于2020年7月5日至10日在美国华盛顿西雅图举行,因新冠肺炎疫情改为线上会议。为促进学术交流,方便国内师生提早了解自然语言处理(NLP)前沿研究,AI 科技评论将推出「ACL 实验室系列论文解读」内容,敬请期待!