Most prior work on exemplar-based syntactically controlled paraphrase generation relies on automatically-constructed large-scale paraphrase datasets. We sidestep this prerequisite by adapting models from prior work to be able to learn solely from bilingual text (bitext). Despite only using bitext for training, and in near zero-shot conditions, our single proposed model can perform four tasks: controlled paraphrase generation in both languages and controlled machine translation in both language directions. To evaluate these tasks quantitatively, we create three novel evaluation datasets. Our experimental results show that our models achieve competitive results on controlled paraphrase generation and strong performance on controlled machine translation. Analysis shows that our models learn to disentangle semantics and syntax in their latent representations.


翻译:先前大多数基于原创的以原创综合控制的原创生成工作都依赖于自动构建的大型原创原句数据集。 我们通过调整先前工作的模型来绕过这一先决条件,以便只从双语文本(bext)中学习。 尽管我们只使用比特ext进行培训,而且在几乎零发条件下,我们提出的单一模式可以执行四项任务:用两种语言进行受控的原译生成,用两种语言进行受控的机器翻译。为了定量评估这些任务,我们创建了三个新的评价数据集。我们的实验结果表明,我们的模型在受控的原创副句生成和受控的机器翻译上取得了竞争性结果。分析表明,我们的模型在潜在表现中学会解析语义和语法。

0
下载
关闭预览

相关内容

【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
39+阅读 · 2020年11月20日
迁移学习简明教程,11页ppt
专知会员服务
108+阅读 · 2020年8月4日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
36+阅读 · 2020年3月3日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
人工智能 | 国际会议/SCI期刊约稿信息9条
Call4Papers
3+阅读 · 2018年1月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Paraphrase Generation with Deep Reinforcement Learning
Arxiv
7+阅读 · 2018年1月30日
VIP会员
Top
微信扫码咨询专知VIP会员