简介:
作为面向任务的对话系统中的关键组件,自然语言生成(NLG)模块将以语义形式表示的对话行为转换为自然语言的响应。传统的基于模板或统计模型的成功通常依赖于带有大量注释的数据,这对于新领域而言是不可行的。因此,对于NLG系统而言,在实际应用中使用有限的标记数据很好地泛化至关重要。为此,我们展示了FewShotWOZ,这是第一个NLG基准测试,用于模拟面向任务的对话系统中的少量学习设置。此外,我们开发了SC-GPT模型。它在大量带注释的NLG语料库上进行了预训练,以获取可控的生成能力,并仅用少数几个特定于域的标签进行微调以适应新的域。在FewShotWOZ和大型Multi-Domain-WOZ数据集上进行的实验表明,通过各种自动指标和人工评估,提出的SC-GPT明显优于现有方法。