As large-scale language model pretraining pushes the state-of-the-art in text generation, recent work has turned to controlling attributes of the text such models generate. While modifying the pretrained models via fine-tuning remains the popular approach, it incurs a significant computational cost and can be infeasible due to lack of appropriate data. As an alternative, we propose MuCoCO -- a flexible and modular algorithm for controllable inference from pretrained models. We formulate the decoding process as an optimization problem which allows for multiple attributes we aim to control to be easily incorporated as differentiable constraints to the optimization. By relaxing this discrete optimization to a continuous one, we make use of Lagrangian multipliers and gradient-descent based techniques to generate the desired text. We evaluate our approach on controllable machine translation and style transfer with multiple sentence-level attributes and observe significant improvements over baselines.


翻译:随着大规模语言模型的预修阶段,随着大规模语言模型在文本生成过程中的先进程度,最近的工作转向了控制这种模型产生的文本属性。通过微调修改经过预先训练的模型仍然是流行的做法,但它在计算上成本很高,而且由于缺乏适当数据而可能不可行。作为替代办法,我们提议采用MoCoCO -- -- 一种灵活和模块化的算法,用于控制经过预先训练的模型的可控推理。我们把解码过程发展成一个优化问题,使多种属性能够很容易地被整合为对优化的不同制约。我们通过将这种离散的优化放松到连续的状态,我们利用拉格朗格的乘数和基于梯度的计算技术来生成理想文本。我们评估了我们用多种句级属性进行可控机器翻译和风格转换的方法,并观察了基线的显著改进。

0
下载
关闭预览

相关内容

让 iOS 8 和 OS X Yosemite 无缝切换的一个新特性。 > Apple products have always been designed to work together beautifully. But now they may really surprise you. With iOS 8 and OS X Yosemite, you’ll be able to do more wonderful things than ever before.

Source: Apple - iOS 8
【AAAI2021】对比聚类,Contrastive Clustering
专知会员服务
76+阅读 · 2021年1月30日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
Python计算导论,560页pdf,Introduction to Computing Using Python
专知会员服务
72+阅读 · 2020年5月5日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
将门创投
4+阅读 · 2017年7月7日
Arxiv
0+阅读 · 2021年10月4日
Arxiv
7+阅读 · 2020年10月9日
Neural Response Generation with Meta-Words
Arxiv
6+阅读 · 2019年6月14日
Paraphrase Generation with Deep Reinforcement Learning
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
将门创投
4+阅读 · 2017年7月7日
Top
微信扫码咨询专知VIP会员