【ACL2019】富有知识又鲁棒的自然语言表示学习方法

2019 年 8 月 22 日 专知

【导读】你的深度学习表示,对不同的任务(QA,对话生成,推理)来说,是否鲁棒?对抗训练能带来鲁棒性么?怎么样改进才能是学到的表示更鲁棒?怎么定量评价一个模型的鲁棒性?前些日子,在ACL2019的表示学习workshop上,来自UNC-NLP实验室的Mohit Bansal 做了关于《Knowledgeable and Adversarially-Robust Representation Learning》的talk,对深度学习表示的鲁棒性进行了系统分析。


【Talk简介】

在这次演讲中,我将讨论关于自然语言处理和生成的富有知识和鲁棒的表示学习的工作。首先,我将描述我们过去的工作,即将语法、意译和多语言知识合并到不同粒度语言形式的嵌入中。接下来,我将介绍我们最近的多任务学习和强化学习方法,利用辅助的知识技能任务,如entailment, saliency, video generation,self-learning等,以及这些辅助任务的选择。我们还将讨论使用外部常识性知识来学习如何填补多跳生成式QA中的推理空白的模型。最后,我们将讨论如何分析NLP模型对抗训练的失败的问题,以及如何推进文本对抗训练,例如,在QA中跨越干扰,在多跳QA中推理捷径,在对话模型中过度敏感和过度稳定,在NLI模型中合成不敏感等问题。


【作者简介】

Mohit Bansal 博士是北卡罗来纳大学NLP实验室(nlp.c.s. unc.edu)主任,也是北卡罗来纳大学教堂山分校(UNC Chapel Hill) CS专业的助理教授。在此之前,他是芝加哥理工大学的助理教授。他在加州大学伯克利分校获得博士学位,在印度理工学院坎普尔分校获得BTech学位。他的研究专长是统计自然语言处理和机器学习,特别关注多模态、具体语义,类人语言生成和问答/对话,以及可解释和泛化的深度学习。曾获得2019 Google Focused Research Award, 2018 ARO Young Investigator Award, 2017 DARPA Young Faculty Award, 2017 ACL Outstanding Paper Award, 2014 ACL Best Paper Award Honorable Mention, and 2018 COLING Area Chair Favorites Award。他也是CoNLL 2019的 Program Co-Chair.


【部分PPT】

更多内容,请关注专知公众号(点击上方蓝色专知关注

  • 后台回复“KRRL” 就可以获取完整版PPT载链接~



-END-

专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎登录www.zhuanzhi.ai,注册登录专知,获取更多AI知识资料!

欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询

请加专知小助手微信(扫一扫如下二维码添加),加入专知人工智能主题群,咨询技术商务合作~

专知《深度学习:算法到实战》课程全部完成!560+位同学在学习,现在报名,限时优惠!网易云课堂人工智能畅销榜首位!

点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程

登录查看更多
4

相关内容

表示学习是通过利用训练数据来学习得到向量表示,这可以克服人工方法的局限性。 表示学习通常可分为两大类,无监督和有监督表示学习。大多数无监督表示学习方法利用自动编码器(如去噪自动编码器和稀疏自动编码器等)中的隐变量作为表示。 目前出现的变分自动编码器能够更好的容忍噪声和异常值。 然而,推断给定数据的潜在结构几乎是不可能的。 目前有一些近似推断的策略。 此外,一些无监督表示学习方法旨在近似某种特定的相似性度量。提出了一种无监督的相似性保持表示学习框架,该框架使用矩阵分解来保持成对的DTW相似性。 通过学习保持DTW的shaplets,即在转换后的空间中的欧式距离近似原始数据的真实DTW距离。有监督表示学习方法可以利用数据的标签信息,更好地捕获数据的语义结构。 孪生网络和三元组网络是目前两种比较流行的模型,它们的目标是最大化类别之间的距离并最小化了类别内部的距离。
【ACL2020】多模态信息抽取,365页ppt
专知会员服务
143+阅读 · 2020年7月6日
【CCL 2019】刘康、韩先培:做失败科研的10个方法
专知会员服务
27+阅读 · 2019年11月12日
300页文本知识提取与推断最新教程
机器学习算法与Python学习
13+阅读 · 2018年8月28日
【干货】ACL 2018 鲁棒、无偏的NLP训练方法
专知
4+阅读 · 2018年7月25日
A Comprehensive Survey on Transfer Learning
Arxiv
121+阅读 · 2019年11月7日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Arxiv
151+阅读 · 2017年8月1日
VIP会员
Top
微信扫码咨询专知VIP会员