©PaperWeekly 原创 · 作者 | 褚维芜
单位 | 北京邮电大学硕士生
研究方向 | 自然语言处理
然而,这种依靠参数量、数据量来提升系统性能的方式对于任务型对话而言并不完全适用。一方面,任务型对话数据集本身比闲聊型对话更难收集,想要获取一个非常大的数据集来对任务型对话系统进行预训练是非常困难的;另一方面,预训练模型参数过大,训练和运行需要很高的计算成本,会存在无法快速部署的问题。由于以上问题的存在,任务型对话预训练的发展速度明显不如开放域对话,但最近两年也逐渐有一些针对任务型对话进行预训练的相关工作,本文将对这些工作做一个梳理总结,供大家参考。
2021TACL:Soloist: Building task bots at scale with transfer learning and machine teaching [3]
2021arXiv:PPTOD:Multi-Task Pre-Training for Plug-and-Play Task-Oriented Dialogue System(PPTOD)[4]
使用现有的预训练语言模型直接在任务型对话数据上进行 fine-tune 无法取得很好的性能,主要原因包括以下两点:一是,对话数据和文本数据的语言模式不同,所以两者的数据分布有很大差异,因此普通文本预训练的语言模型在对话数据上表现不佳;二是,闲聊型对话数据广泛且易于获得,但是它们通常很短,没有明确的对话目标。而任务型对话通常有明确的目标,多轮对话交互,因此闲聊型对话数据预训练模型也很难在任务型对话数据上取得很好的表现。
SOLOIST:预训练对话系统迁移到新的对话任务
3.1 Background & Motivation
构建对话系统需要大量的标注、领域知识以及专家经验,人工标注数据费时费力。即便已经对某个领域的数据进行了大量标注,现实情况下遇到新的任务时,对话系统依然难以完成。
结构说明:使用 GPT-2 直接生成对话状态、对话动作、系统回复
预训练任务:
现有基于预训练模型的任务型对话系统(SimpleTOD、SOLOIST 等)存在一定的局限性,一方面它们将各个子任务级联来进行对话生成,有误差累积,且系统推理会有延迟;另一方面,这些模型的训练需要提前标注大量的数据,且标注必须是完整的,因此大量的只有部分标注的数据无法使用(eg.只标注了对话状态或者对话动作任务的数据)。
数据集:本文使用 11 个部分标注的任务型对话数据集对模型进行预训练,总共 2.3M 句话语,包含 80 个领域。数据集及其标注信息如下表所示。
PPTOD模型
5.1 Background & Motivation
现有的任务型对话预训练的相关研究并没有在预训练阶段丰富有关对话策略的知识,作者假设在预训练阶段直接学习进行对话策略的学习(DA prediction)可以使模型学习到更好地表示,并进一步提高端到端地性能。因此,本文主要关注于怎样在预训练阶段来对对话策略进行更好地建模。
一个简单的方式是将有监督对话动作分类损失和预训练的无监督 MLM 损失一起进行多任务训练,但这种方式存在三个问题:
对于无标注的对话数据,模型只能提取到一般的语言知识,不能有效地挖掘对话策略相关知识
针对以上问题,本文所设计的解决方案如下:
结构说明:
UniLM 为 backbone,它包含一个用于理解的双向编码器和一个用于生成的单向解码器,编码器和解码器是权重共享的
预训练任务:
半监督预训练范式
有标注数据的损失函数
无标注数据的损失函数
总的损失函数(有标和无标数据混合训练)
微调及推理
总结
从预训练数据来看,除了 SOLOIST 外,其他三个模型都是尽量使模型可以使用更多的预训练数据。TOD-BERT 联合了九个任务型对话数据集进行预训练,PPTOD 设计了一种可以利用部分标注数据集的模型,GALAXY 则更近一步,有标注和无标注的数据都可以用于训练。
从预训练任务上来看,四个模型都针对对话的特点调整了传统的预训练任务。TOD-BERT 采用了可以模拟下游回复选择任务的 Response contrastive loss,SOLOIST 将 DST、NLG 均建模为生成任务,PPTOD 基于 prompt 将下游任务均建模为生成任务,GALAXY 则采用了对话动作预测、回复生成 、回复选择、一致性正则化作为预训练任务。
参考文献
[1] Ni J, Young T, Pandelea V, et al. Recent advances in deep learning based dialogue systems: A systematic survey[J]. arXiv preprint arXiv:2105.04387, 2021.
[2] Wu C S, Hoi S C H, Socher R, et al. TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented Dialogue[C]//Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP). 2020: 917-929.
[3] Peng B, Li C, Li J, et al. Soloist: Building task bots at scale with transfer learning and machine teaching[J]. Transactions of the Association for Computational Linguistics, 2021, 9: 807-824.
[4] Su Y, Shu L, Mansimov E, et al. Multi-Task Pre-Training for Plug-and-Play Task-Oriented Dialogue System[J]. arXiv preprint arXiv:2109.14739, 2021.
[5] He W, Dai Y, Zheng Y, et al. GALAXY: A Generative Pre-trained Model for Task-Oriented Dialog with Semi-Supervised Learning and Explicit Policy Injection[J]. arXiv preprint arXiv:2111.14592, 2021.
特别鸣谢
感谢 TCCI 天桥脑科学研究院对于 PaperWeekly 的支持。TCCI 关注大脑探知、大脑功能和大脑健康。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧