Recent years have brought about an interest in the challenging task of summarizing conversation threads (meetings, online discussions, etc.). Such summaries help analysis of the long text to quickly catch up with the decisions made and thus improve our work or communication efficiency. To spur research in thread summarization, we have developed an abstractive Email Thread Summarization (EmailSum) dataset, which contains human-annotated short (<30 words) and long (<100 words) summaries of 2549 email threads (each containing 3 to 10 emails) over a wide variety of topics. We perform a comprehensive empirical study to explore different summarization techniques (including extractive and abstractive methods, single-document and hierarchical models, as well as transfer and semisupervised learning) and conduct human evaluations on both short and long summary generation tasks. Our results reveal the key challenges of current abstractive summarization models in this task, such as understanding the sender's intent and identifying the roles of sender and receiver. Furthermore, we find that widely used automatic evaluation metrics (ROUGE, BERTScore) are weakly correlated with human judgments on this email thread summarization task. Hence, we emphasize the importance of human evaluation and the development of better metrics by the community. Our code and summary data have been made available at: https://github.com/ZhangShiyue/EmailSum


翻译:近些年来,大家对总结各种议题的对话线索(会议、在线讨论等)这一具有挑战性的任务产生了兴趣。这些摘要有助于分析长篇文章,以便迅速赶上所作决定,从而改进我们的工作或通信效率。为了刺激对线索的总结研究,我们开发了一个抽象的Email Thread Summarization(EmailSummarization)(EmailSummarization)(EmailSum)数据集,其中包含人文注释短片(<30个字)和长篇(<100个字)的2549个电子邮件线索摘要(每个短片包含3至10个电子邮件)。我们进行了一项全面的经验性研究,以探索不同的总结技术(包括采掘和抽象方法、单份文件和等级模型,以及转移和半监督学习),并对短长篇摘要生成任务进行人文评估。我们的结果揭示了当前抽象的总结模型在这项工作中的主要挑战,例如了解发送者的意图和确定发件人和接收人的作用。此外,我们发现广泛使用的自动评价指标(ROUGE、BERSTScore)与人类判断系统对这个电子邮件/Simalimalalimal dalization的进度进行了较重要的评估。我们强调了这个电子邮件/TourSRimalimalimalimdudududududududududududududududududududududududududududustrs。我们的数据。

1
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
【论文推荐】文本摘要简述
专知会员服务
68+阅读 · 2020年7月20日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
29+阅读 · 2019年10月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
WWW 2019会议接收文章列表放出,恭喜各位!
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机类 | 期刊专刊截稿信息9条
Call4Papers
4+阅读 · 2018年1月26日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
3+阅读 · 2019年9月5日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
3+阅读 · 2018年12月18日
Arxiv
5+阅读 · 2017年4月12日
VIP会员
相关VIP内容
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
【论文推荐】文本摘要简述
专知会员服务
68+阅读 · 2020年7月20日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
29+阅读 · 2019年10月18日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
WWW 2019会议接收文章列表放出,恭喜各位!
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机类 | 期刊专刊截稿信息9条
Call4Papers
4+阅读 · 2018年1月26日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员