【NeurIPS 2020】用人眼注视引导的神经注意力提升自然语言处理任务

2020 年 10 月 17 日 专知


由于语料库的缺乏,在自然语言处理(NLP)的神经注意机制中整合人类凝视数据作为监督信号方面的进展有限。我们提出了一种新的混合文本显著性模型(TSM),这是第一次将阅读的认知模型与明确的人类注视监督结合在一个单一的机器学习框架中。在四个不同的语料库上,我们证明了我们的混合TSM持续时间预测与人类凝视地面真相高度相关。我们进一步提出了一种新的联合建模方法,将TSM预测集成到为特定上游NLP任务而设计的网络的注意层中,而不需要任何特定任务的人类凝视数据。我们证明,在BLEU-4中,我们的联合模型在Quora问题对语料库上的释义生成比目前的水平高出10%以上,并且在具有挑战性的谷歌句子压缩语料库上实现了最先进的句子压缩性能。因此,我们的工作引入了一种连接数据驱动和认知模型的实用方法,并展示了一种将人类注视引导的神经注意整合到NLP任务中的新方法。

https://arxiv.org/abs/2010.07891




专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“TSMN” 可以获取《【NeurIPS 2020】用人眼注视引导的神经注意力提升自然语言处理任务》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

【纽约大学Sean】神经文本退化:一致性和学习,93页ppt
专知会员服务
15+阅读 · 2020年10月18日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
【NeurIPS 2020】视觉注意力神经编码
专知会员服务
40+阅读 · 2020年10月4日
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
212+阅读 · 2020年4月26日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
自然语言处理ACL2020论文列表
专知
12+阅读 · 2020年6月23日
新任务&数据集:视觉常识推理(VCR)
专知
50+阅读 · 2018年12月1日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
A Sketch-Based System for Semantic Parsing
Arxiv
4+阅读 · 2019年9月12日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
6+阅读 · 2018年11月1日
VIP会员
相关VIP内容
相关论文
Top
微信扫码咨询专知VIP会员