题目: Span-ConveRT: Few-shot Span Extraction for Dialog with Pretrained Conversational Representations

摘要:

本文介绍了Span-ConveRT,这是一种用于对话框槽填充的轻量级模型,它将任务描述为基于轮的span提取任务。这个公式允许简单地集成编码在大型预先训练的会话模型中的会话知识,如ConveRT (Henderson等人,2019)。我们展示了在Span-ConveRT中利用这些知识对于很少的学习场景特别有用:

  • 一个跨度提取器,在目标域从零开始训练表示,
  • 基于bert的跨度提取器。

为了激发更多关于填槽任务的span提取的工作,我们还发布了RESTAURANTS-8K,这是一个新的具有挑战性的数据集,包含8,198个话语,是从餐馆预订领域的实际对话中汇编而成。

成为VIP会员查看完整内容
16

相关内容

小样本学习(Few-Shot Learning,以下简称 FSL )用于解决当可用的数据量比较少时,如何提升神经网络的性能。在 FSL 中,经常用到的一类方法被称为 Meta-learning。和普通的神经网络的训练方法一样,Meta-learning 也包含训练过程和测试过程,但是它的训练过程被称作 Meta-training 和 Meta-testing。
使用 Bert 预训练模型文本分类(内附源码)
数据库开发
102+阅读 · 2019年3月12日
自然语言处理中的深度迁移学习——文本预训练
中国人工智能学会
7+阅读 · 2018年12月10日
干货|多重预训练视觉模型的迁移学习
机器学习算法与Python学习
4+阅读 · 2017年12月25日
Arxiv
5+阅读 · 2020年3月26日
Arxiv
11+阅读 · 2019年6月19日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
3+阅读 · 2019年3月1日
VIP会员
相关VIP内容
微信扫码咨询专知VIP会员