由于语料库的缺乏,在自然语言处理(NLP)的神经注意机制中整合人类凝视数据作为监督信号方面的进展有限。我们提出了一种新的混合文本显著性模型(TSM),这是第一次将阅读的认知模型与明确的人类注视监督结合在一个单一的机器学习框架中。在四个不同的语料库上,我们证明了我们的混合TSM持续时间预测与人类凝视地面真相高度相关。我们进一步提出了一种新的联合建模方法,将TSM预测集成到为特定上游NLP任务而设计的网络的注意层中,而不需要任何特定任务的人类凝视数据。我们证明,在BLEU-4中,我们的联合模型在Quora问题对语料库上的释义生成比目前的水平高出10%以上,并且在具有挑战性的谷歌句子压缩语料库上实现了最先进的句子压缩性能。因此,我们的工作引入了一种连接数据驱动和认知模型的实用方法,并展示了一种将人类注视引导的神经注意整合到NLP任务中的新方法。

https://arxiv.org/abs/2010.07891

成为VIP会员查看完整内容
15

相关内容

近期必读的五篇 EMNLP 2020【反事实推理】相关论文和代码
专知会员服务
25+阅读 · 2020年11月23日
少即是多?非参数语言模型,68页ppt
专知会员服务
23+阅读 · 2020年11月22日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
【NeurIPS 2020】视觉注意力神经编码
专知会员服务
40+阅读 · 2020年10月4日
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
26+阅读 · 2020年5月25日
【CVPR2020-CMU】无数据模型选择,一种深度框架潜力
专知会员服务
22+阅读 · 2020年4月12日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
10+阅读 · 2019年6月16日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
可应用于实际的14个NLP突破性研究成果(一)
云栖社区
7+阅读 · 2019年2月18日
自然语言处理NLP快速入门
专知
20+阅读 · 2018年10月8日
OpenAI NLP最新进展:通过无监督学习提升语言理解
人工智能头条
6+阅读 · 2018年6月18日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
CoQA: A Conversational Question Answering Challenge
Arxiv
7+阅读 · 2018年8月21日
Arxiv
5+阅读 · 2018年5月16日
VIP会员
相关VIP内容
近期必读的五篇 EMNLP 2020【反事实推理】相关论文和代码
专知会员服务
25+阅读 · 2020年11月23日
少即是多?非参数语言模型,68页ppt
专知会员服务
23+阅读 · 2020年11月22日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
【NeurIPS 2020】视觉注意力神经编码
专知会员服务
40+阅读 · 2020年10月4日
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
26+阅读 · 2020年5月25日
【CVPR2020-CMU】无数据模型选择,一种深度框架潜力
专知会员服务
22+阅读 · 2020年4月12日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
微信扫码咨询专知VIP会员