Slot filling is one of the critical tasks in modern conversational systems. The majority of existing literature employs supervised learning methods, which require labeled training data for each new domain. Zero-shot learning and weak supervision approaches, among others, have shown promise as alternatives to manual labeling. Nonetheless, these learning paradigms are significantly inferior to supervised learning approaches in terms of performance. To minimize this performance gap and demonstrate the possibility of open-domain slot filling, we propose a Self-supervised Co-training framework, called SCot, that requires zero in-domain manually labeled training examples and works in three phases. Phase one acquires two sets of complementary pseudo labels automatically. Phase two leverages the power of the pre-trained language model BERT, by adapting it for the slot filling task using these sets of pseudo labels. In phase three, we introduce a self-supervised cotraining mechanism, where both models automatically select highconfidence soft labels to further improve the performance of the other in an iterative fashion. Our thorough evaluations show that SCot outperforms state-of-the-art models by 45.57% and 37.56% on SGD and MultiWoZ datasets, respectively. Moreover, our proposed framework SCot achieves comparable performance when compared to state-of-the-art fully supervised models.


翻译:槽位填充是现代对话系统中关键的任务之一。大多数现有文献采用监督学习方法,需要为每个新领域进行标签化训练数据。零样本学习和弱监督方法等已被证明是手动标注的替代方案。然而,这些学习方法在性能方面明显劣于监督学习方法。为了尽量缩小这种性能差距并证明实现开放域的槽位填充的可能性,我们提出了一个自我监督协同训练框架SCot,不需要领域内手动标记的训练样本,分三个阶段工作。第一阶段自动获取两组互补伪标签。第二阶段利用预训练的语言模型BERT的强大功能,通过使用这些伪标签将其适应于槽位填充任务。在第三阶段中,我们引入一个自我监督协同训练机制,两个模型均自动选择高置信软标签,以迭代方式进一步提高对方的性能。我们全面的评估表明,SCot在SGD和MultiWoZ数据集上分别比最先进的模型提高了45.57%和37.56%的性能。此外,与最先进的完全监督模型相比,我们提出的框架SCot实现了可比较的性能。

0
下载
关闭预览

相关内容

【CMU博士论文】多语言视觉-语言模型研究,190页pdf
专知会员服务
34+阅读 · 2023年2月15日
专知会员服务
29+阅读 · 2020年9月18日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
42+阅读 · 2020年9月8日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
IJCAI 2022 | 使用陈述句进行视觉问答的Prompt Tuning
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
基于PyTorch/TorchText的自然语言处理库
专知
28+阅读 · 2019年4月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月10日
Arxiv
25+阅读 · 2021年3月20日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员