文本生成在过去几年中取得了重大进展。然而,评估指标却落后了,因为最流行的选择(如BLEU 和ROUGE)可能与人类的判断关系不大。我们提出了BLEURT,一种基于BERT的学习评价指标,它可以用几千个可能有偏见的训练例子来模拟人类的判断。我们的方法的一个关键方面是一个新的预训练方案,它使用了数百万的综合例子来帮助模型泛化。BLEURT提供了过去三年WMT指标共享任务和WebNLG竞赛数据集的最先进的结果。与基于普通BERT的方法相比,即使在训练数据稀少且分布不均匀的情况下,它也能产生更好的结果。

成为VIP会员查看完整内容
19

相关内容

【ACL2020-Google】逆向工程配置的神经文本生成模型
专知会员服务
16+阅读 · 2020年4月20日
【ACL2020-伯克利】预训练Transformer提高分布外鲁棒性
专知会员服务
19+阅读 · 2020年4月14日
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
NLP领域中的迁移学习现状
AI科技评论
7+阅读 · 2019年9月1日
39页《迁移学习自然语言生成》PPT
专知
9+阅读 · 2019年2月13日
预训练模型迁移学习
极市平台
10+阅读 · 2018年11月6日
用于神经网络机器翻译的全并行文本生成
干货|多重预训练视觉模型的迁移学习
机器学习算法与Python学习
4+阅读 · 2017年12月25日
2017深度学习NLP进展与趋势
全球人工智能
5+阅读 · 2017年12月19日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
5+阅读 · 2019年4月21日
VIP会员
相关资讯
NLP领域中的迁移学习现状
AI科技评论
7+阅读 · 2019年9月1日
39页《迁移学习自然语言生成》PPT
专知
9+阅读 · 2019年2月13日
预训练模型迁移学习
极市平台
10+阅读 · 2018年11月6日
用于神经网络机器翻译的全并行文本生成
干货|多重预训练视觉模型的迁移学习
机器学习算法与Python学习
4+阅读 · 2017年12月25日
2017深度学习NLP进展与趋势
全球人工智能
5+阅读 · 2017年12月19日
微信扫码咨询专知VIP会员