Despite significant progress in neural abstractive summarization, recent studies have shown that the current models are prone to generating summaries that are unfaithful to the original context. To address the issue, we study contrast candidate generation and selection as a model-agnostic post-processing technique to correct the extrinsic hallucinations (i.e. information not present in the source text) in unfaithful summaries. We learn a discriminative correction model by generating alternative candidate summaries where named entities and quantities in the generated summary are replaced with ones with compatible semantic types from the source document. This model is then used to select the best candidate as the final output summary. Our experiments and analysis across a number of neural summarization systems show that our proposed method is effective in identifying and correcting extrinsic hallucinations. We analyze the typical hallucination phenomenon by different types of neural summarization systems, in hope to provide insights for future work on the direction.


翻译:尽管在神经抽象总结方面取得了显著进展,但最近的研究表明,目前的模型很容易产生不符合原始背景的概要。为了解决这个问题,我们研究将候选人的产生和选择作为模型的不可知后处理技术,以不忠的概要纠正外在幻觉(即原始文本中未出现的信息)。我们通过产生替代的候选摘要,将生成的摘要中点名的实体和数量替换为与源文件中的语义类型相容的缩略图,学习了一种歧视性的纠正模式。然后,该模型被用来选择最佳的候选者作为最终产出摘要。我们针对若干神经合成系统的实验和分析表明,我们所提议的方法在查明和纠正外在幻觉方面是有效的。我们通过不同种类的神经合成系统分析典型的幻觉现象,希望为今后关于方向的工作提供见解。

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Arxiv
18+阅读 · 2020年10月9日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
3+阅读 · 2018年12月18日
VIP会员
Top
微信扫码咨询专知VIP会员