论文题目:Few-shot Knowledge Graph-to-Text Generation with Pretrained Language Models
论文概述:本文研究如何自动生成描述知识图谱(KG)中事实的自然语言文本。借助预训练语言模型(PLMs)在语言理解和生成方面的能力,我们主要考虑少样本场景。我们提出了三个主要的技术贡献,即用于弥合KG编码和PLM之间语义差距的表示对齐,用于生成更好的输入表示的基于关系的KG线性化策略,以及用于学习KG和文本之间对应关系的多任务学习。在三个基准数据集上进行的大量实验证明了我们的模型在KG到文本生成任务上的有效性。特别是,我们的模型可以实现在只有几百个标记样本的情况下取得非常好的效果。