Processing overlapping narrative documents, such as legal testimonies or historical accounts, often aims not for compression but for a unified, coherent, and chronologically sound text. Standard Multi-Document Summarization (MDS), with its focus on conciseness, fails to preserve narrative flow. This paper formally defines this challenge as a new NLP task: Narrative Consolidation, where the central objectives are chronological integrity, completeness, and the fusion of complementary details. To demonstrate the critical role of temporal structure in this task, we introduce Temporal Alignment Event Graph (TAEG), a graph structure that explicitly models chronology and event alignment. By applying a standard centrality algorithm to TAEG, our method functions as a version selection mechanism, choosing the most central representation of each event in its correct temporal position. In a study on the four Biblical Gospels, this structure-focused approach guarantees perfect temporal ordering (Kendall's Tau of 1.000) by design and dramatically improves content metrics (e.g., +357.2% in ROUGE-L F1). The success of this baseline method validates the formulation of Narrative Consolidation as a relevant task and establishes that an explicit temporal backbone is a fundamental component for its resolution.


翻译:在处理重叠的叙事文档(如法律证词或历史记载)时,目标通常并非压缩文本,而是生成一个统一、连贯且时序合理的文本。传统的多文档摘要方法侧重于简洁性,难以保持叙事流。本文正式将此挑战定义为一个新的自然语言处理任务:叙事整合,其核心目标包括时序完整性、内容完备性以及互补细节的融合。为论证时序结构在此任务中的关键作用,我们提出了时序对齐事件图——一种显式建模时序与事件对齐关系的图结构。通过对TAEG应用标准的中心性算法,我们的方法可作为一种版本选择机制,在正确的时序位置上为每个事件选取最具中心性的表述。在对四部圣经福音书的研究中,这种以结构为核心的方法通过设计保证了完美的时序排序(肯德尔τ系数为1.000),并显著提升了内容指标(如ROUGE-L F1值提高357.2%)。该基线方法的成功验证了将叙事整合定义为一个独立任务的合理性,并证明显式的时序骨架是其解决过程中的基础组件。

0
下载
关闭预览

相关内容

UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
14+阅读 · 2022年5月4日
【NeurIPS2019】图变换网络:Graph Transformer Network
论文报告 | Graph-based Neural Multi-Document Summarization
科技创新与创业
15+阅读 · 2017年12月15日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员