最近的研究表明,许多NLP系统对输入的微小扰动非常敏感和脆弱,并且不能很好地在不同的数据集上进行泛化。这种鲁棒性的缺乏阻碍了NLP系统在真实应用中的使用。本教程旨在让人们意识到有关NLP鲁棒性的实际问题。它的目标是对构建可靠的NLP系统感兴趣的NLP研究人员和实践者。特别地,我们将回顾最近关于分析NLP系统在面对对抗输入和分布转移数据时的弱点的研究。我们将为观众提供一个全面的视角

如何使用对抗性的例子来检查NLP模型的弱点并促进调试; 如何增强现有NLP模型的鲁棒性和对抗输入的防御; 对鲁棒性的考虑如何影响我们日常生活中使用的真实世界的NLP应用。 我们将通过概述这一领域未来的研究方向来结束本教程。

https://robustnlp-tutorial.github.io

成为VIP会员查看完整内容
35

相关内容

自然语言处理顶级会议
自然语言处理现代方法,176页pdf
专知会员服务
269+阅读 · 2021年2月22日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
39+阅读 · 2020年11月20日
最新《低资源自然语言处理》综述论文,21页pdf
专知会员服务
61+阅读 · 2020年10月27日
专知会员服务
65+阅读 · 2020年9月10日
AAAI 2020 最新“可解释人工智能 XAI”教程
学术头条
5+阅读 · 2020年2月11日
NLP 研究灵感库
AI研习社
3+阅读 · 2018年6月10日
Tutorial on NLP-Inspired Network Embedding
Arxiv
7+阅读 · 2019年10月16日
Arxiv
22+阅读 · 2018年8月30日
VIP会员
相关VIP内容
自然语言处理现代方法,176页pdf
专知会员服务
269+阅读 · 2021年2月22日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
39+阅读 · 2020年11月20日
最新《低资源自然语言处理》综述论文,21页pdf
专知会员服务
61+阅读 · 2020年10月27日
专知会员服务
65+阅读 · 2020年9月10日
相关资讯
AAAI 2020 最新“可解释人工智能 XAI”教程
学术头条
5+阅读 · 2020年2月11日
NLP 研究灵感库
AI研习社
3+阅读 · 2018年6月10日
微信扫码咨询专知VIP会员