Pre-trained language models (PLMs) fail to generate long-form narrative text because they do not consider global structure. As a result, the generated texts are often incohesive, repetitive, or lack content. Recent work in story generation reintroduced explicit content planning in the form of prompts, keywords, or semantic frames. Trained on large parallel corpora, these models can generate more logical event sequences and thus more contentful stories. However, these intermediate representations are often not in natural language and cannot be utilized by PLMs without fine-tuning. We propose generating story plots using off-the-shelf PLMs while maintaining the benefit of content planning to generate cohesive and contentful stories. Our proposed method, ScratchPlot, first prompts a PLM to compose a content plan. Then, we generate the story's body and ending conditioned on the content plan. Furthermore, we take a generate-and-rank approach by using additional PLMs to rank the generated (story, ending) pairs. We benchmark our method with various baselines and achieved superior results in both human and automatic evaluation.
翻译:预先培训的语言模型(PLM) 未能产生长式的叙述性文字, 因为他们不考虑全球结构。 结果, 生成的文本往往不连贯、 重复或缺乏内容。 最近的故事生成工作以提示、 关键词或语义框架的形式重新引入了明确的内容规划。 这些模型在大型平行的子体上培训, 能够产生更符合逻辑的事件序列, 从而产生更丰富的故事。 然而, 这些中间表达方式通常不是用自然语言, 并且不能在不进行微调的情况下被 PLM 使用。 我们建议用现成的 PLM 生成故事图案, 同时保持内容规划的好处, 以生成具有凝聚力和内容的故事。 我们提议的方法是 ScratchPlot, 首先促使一个 PLM 来构建内容计划。 然后, 我们生成故事的体和结尾于内容计划。 此外, 我们使用额外的 PLM 来对生成的( 故事、 结束) 配对进行排序。 我们用各种基线来衡量我们的方法, 并在人和自动评估中实现更高的结果 。