自然语言处理(NLP)有望为各种有影响力的应用提供工具,从自动摘要到问答系统和会话助手。最近,由于预训练语言模型的出现,NLP已经发生了革命性的变化。Radford et al. 2018a, 2019;Devlin et al. 2019;Brown等人,2020]。我们使用“自监督”的学习目标来训练PLM——只对无标签文本进行预测任务,比如下一个单词预测或缺词预测。因此,PLM能够从大量的互联网文本中学习,在许多NLP任务中获得强大的性能。尽管自监督的目标取得了成功,但它们面临着一个根本的限制:它们训练PLM以与人类偏好不一致的方式行事。PLM学会重复互联网上的错误信息、攻击性笑话和个人联系信息,很难控制或引导PLM生成的文本。接下来,我们展示了基于PLM的分类器在预测人们喜欢的文本方面是有效的。因此,有可能使用这样的分类器作为一个学习信号来自动校正PLM。我们展示了这种方法来训练高质量的检索系统,使用检索增强生成(RAG)在各种任务中获得强大的性能。即使在这样的训练之后,一些不良行为也可能在训练过程中未被发现。因此,我们更进一步,通过使用其他PLM,从PLM中产生一些诱发不良行为的输入,从而预先地发现并修复这些行为。总的来说,我们发现,让PLM与人类偏好保持一致的一些最强大的工具是PLM本身。

成为VIP会员查看完整内容
16

相关内容

预训练模型是深度学习架构,已经过训练以执行大量数据上的特定任务(例如,识别图片中的分类问题)。这种训练不容易执行,并且通常需要大量资源,超出许多可用于深度学习模型的人可用的资源。
专知会员服务
45+阅读 · 2021年5月13日
专知会员服务
21+阅读 · 2021年2月6日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
【复旦大学-SP2020】NLP语言模型隐私泄漏风险
专知会员服务
24+阅读 · 2020年4月20日
错误的语法会对BERT模型准确性产生影响吗?
评估语言模型的句法能力
TensorFlow
1+阅读 · 2022年1月11日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
3分钟看懂史上最强NLP模型BERT
新智元
22+阅读 · 2019年2月27日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
Vision-and-Language Pretrained Models: A Survey
Arxiv
3+阅读 · 2022年4月15日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员