无监督复述是自然语言处理中的重要研究课题。我们提出了一种利用模拟退火实现无监督复述的新方法,我们将复述建模为一个离散优化问题,并提出了一个精心设计的目标函数,包括语义相似性、表达多样性和释义的语言流畅性等衡量指标。通过执行一系列的局部编辑,在整个句子空间中搜索满足该目标函数的句子。因为我们的方法是无监督的,不需要平行语料库进行训练,因此可以方便地应用于不同领域的复述生成任务。我们在各种基准数据集上(Quora、Wikianswers、MSCOCO和Twitter)评估了本方法,结果表明,与以往的无监督方法相比,我们的方法在自动评估和人工评估方面都具备明显的优越性。此外,我们无监督方法优于大多数现有的领域自适应监督模型。

成为VIP会员查看完整内容
13

相关内容

【ACL2020-伯克利】预训练Transformer提高分布外鲁棒性
专知会员服务
19+阅读 · 2020年4月14日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
单语言表征如何迁移到多语言去?
AI科技评论
5+阅读 · 2019年11月21日
【优博微展2019】李志泽:简单快速的机器学习优化方法
清华大学研究生教育
13+阅读 · 2019年10月8日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
论文浅尝 | 使用变分推理做KBQA
开放知识图谱
12+阅读 · 2018年4月15日
利用深度强化学习进行对话生成
PaperWeekly
9+阅读 · 2017年8月23日
Arxiv
6+阅读 · 2019年9月4日
A General and Adaptive Robust Loss Function
Arxiv
7+阅读 · 2018年11月5日
Arxiv
6+阅读 · 2018年6月20日
VIP会员
相关主题
相关资讯
微信扫码咨询专知VIP会员