Paraphrase generation is a longstanding NLP task that has diverse applications for downstream NLP tasks. However, the effectiveness of existing efforts predominantly relies on large amounts of golden labeled data. Though unsupervised endeavors have been proposed to address this issue, they may fail to generate meaningful paraphrases due to the lack of supervision signals. In this work, we go beyond the existing paradigms and propose a novel approach to generate high-quality paraphrases with weak supervision data. Specifically, we tackle the weakly-supervised paraphrase generation problem by: (1) obtaining abundant weakly-labeled parallel sentences via retrieval-based pseudo paraphrase expansion; and (2) developing a meta-learning framework to progressively select valuable samples for fine-tuning a pre-trained language model, i.e., BART, on the sentential paraphrasing task. We demonstrate that our approach achieves significant improvements over existing unsupervised approaches, and is even comparable in performance with supervised state-of-the-arts.


翻译:参数生成是一项长期的NLP任务,对下游的NLP任务有多种应用,但是,现有努力的效力主要取决于大量贴有金标签的数据。虽然已提出未经监督的努力解决这一问题,但由于缺乏监督信号,它们可能无法产生有意义的参数。在这项工作中,我们超越了现有的模式,提出了一种创新办法,以产生质量高的参数,而监督数据薄弱。具体地说,我们通过下列方式解决了薄弱的参数生成问题:(1) 通过检索基于假冒参数扩展获得大量微弱标签的平行句子;(2) 开发一个元学习框架,逐步挑选有价值的样本,以微调预先培训的语言模型,即用于发送式参数任务。我们证明我们的方法与现有的未监督的方法取得了显著的改进,甚至与受监督的状态的功能相类似。

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年3月7日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
3+阅读 · 2018年12月29日
Paraphrase Generation with Deep Reinforcement Learning
VIP会员
Top
微信扫码咨询专知VIP会员