Summarization evaluation remains an open research problem: current metrics such as ROUGE are known to be limited and to correlate poorly with human judgments. To alleviate this issue, recent work has proposed evaluation metrics which rely on question answering models to assess whether a summary contains all the relevant information in its source document. Though promising, the proposed approaches have so far failed to correlate better than ROUGE with human judgments. In this paper, we extend previous approaches and propose a unified framework, named QuestEval. In contrast to established metrics such as ROUGE or BERTScore, QuestEval does not require any ground-truth reference. Nonetheless, QuestEval substantially improves the correlation with human judgments over four evaluation dimensions (consistency, coherence, fluency, and relevance), as shown in the extensive experiments we report.


翻译:总结评价仍然是一个开放的研究问题:据知,目前的指标,如ROUGE(ROUGE)是有限的,与人类判断不相干。为了缓解这一问题,最近的工作提出了评价指标,这些评价指标依靠问答模型来评估摘要是否包含其原始文件中的所有相关信息。虽然很有希望,但拟议的方法迄今没有比ROUGE(ROUGE)更好地与人类判断联系起来。在本文件中,我们推广了以前的方法,并提出了一个称为QuestEval的统一框架。与RoOUGE(RETScore)或BERTScore(BERTScore)等既定指标相比,QuestEval(QuestEval)并不需要任何地面真相参考。然而,如我们报告的广泛实验所示,QuestEval(QuestEval)在四个评价层面(一致性、一致性、一致性、流利度和相关性)上大大改善了与人类判断的相关性。

0
下载
关闭预览

相关内容

【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
105+阅读 · 2020年6月10日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
已删除
将门创投
8+阅读 · 2019年7月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Arxiv
5+阅读 · 2019年4月21日
VIP会员
相关资讯
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
已删除
将门创投
8+阅读 · 2019年7月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Top
微信扫码咨询专知VIP会员