Measuring event salience is essential in the understanding of stories. This paper takes a recent unsupervised method for salience detection derived from Barthes Cardinal Functions and theories of surprise and applies it to longer narrative forms. We improve the standard transformer language model by incorporating an external knowledgebase (derived from Retrieval Augmented Generation) and adding a memory mechanism to enhance performance on longer works. We use a novel approach to derive salience annotation using chapter-aligned summaries from the Shmoop corpus for classic literary works. Our evaluation against this data demonstrates that our salience detection model improves performance over and above a non-knowledgebase and memory augmented language model, both of which are crucial to this improvement.


翻译:测量事件显著性对于了解故事至关重要。 本文件采用了一种不受监督的最近从Barthes 红衣主教函数和突袭理论中发现显著性能的方法,并将其应用于较长的叙事形式。我们改进了标准变压器语言模型,纳入了外部知识库(来源于回溯式增殖一代),并增加了一个记忆机制,以提高长期工程的绩效。我们采用了一种新颖的方法,利用经典文学作品Shmoopample的与章节一致的摘要来得出突出的注释。我们对这些数据的评估表明,我们的突出性能检测模型在非知识库和记忆增强语言模型之外提高了性能,而这两种模型对于这一改进都至关重要。

0
下载
关闭预览

相关内容

【知识图谱@EMNLP2020】Knowledge Graphs in NLP @ EMNLP 2020
专知会员服务
42+阅读 · 2020年11月22日
【知识图谱@ACL2020】Knowledge Graphs in Natural Language Processing
专知会员服务
65+阅读 · 2020年7月12日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
171+阅读 · 2020年2月13日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
【荟萃】知识图谱论文与笔记
专知
71+阅读 · 2019年3月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Type-augmented Relation Prediction in Knowledge Graphs
Arxiv
6+阅读 · 2019年9月4日
Arxiv
6+阅读 · 2018年11月1日
VIP会员
Top
微信扫码咨询专知VIP会员