Pretraining techniques leveraging enormous datasets have driven recent advances in text summarization. While folk explanations suggest that knowledge transfer accounts for pretraining's benefits, little is known about why it works or what makes a pretraining task or dataset suitable. In this paper, we challenge the knowledge transfer story, showing that pretraining on documents consisting of character n-grams selected at random, we can nearly match the performance of models pretrained on real corpora. This work holds the promise of eliminating upstream corpora, which may alleviate some concerns over offensive language, bias, and copyright issues. To see whether the small residual benefit of using real data could be accounted for by the structure of the pretraining task, we design several tasks motivated by a qualitative study of summarization corpora. However, these tasks confer no appreciable benefit, leaving open the possibility of a small role for knowledge transfer.


翻译:利用大量数据集的培训前技术推动了最近在文本总结方面的进步。虽然民间解释表明知识转移可以说明培训前的好处,但对知识转移为什么起作用或是什么使培训前任务或数据集适合的情况却知之甚少。在本文中,我们质疑知识转移的故事,表明对由随机选择的字符n克组成的文件进行预先培训,我们几乎可以与在真正的公司上预先培训的模型的性能相匹配。这项工作有望消除上游公司,这可能会减轻对攻击性语言、偏见和版权问题的一些关切。为了了解使用实际数据带来的小剩余利益能否在培训前任务的结构中得到反映,我们设计了若干任务,其动机是进行定性研究,对合成公司进行定性研究。然而,这些任务并没有带来明显的好处,因此为知识转让开辟了小型作用的可能性。

0
下载
关闭预览

相关内容

专知会员服务
123+阅读 · 2020年9月8日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
170+阅读 · 2020年2月13日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
计算机类 | SIGMETRICS 2019等国际会议信息7条
Call4Papers
9+阅读 · 2018年10月23日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
3+阅读 · 2019年11月28日
A Comprehensive Survey on Transfer Learning
Arxiv
120+阅读 · 2019年11月7日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
3+阅读 · 2018年8月27日
Arxiv
7+阅读 · 2018年8月21日
Arxiv
5+阅读 · 2017年4月12日
VIP会员
相关VIP内容
专知会员服务
123+阅读 · 2020年9月8日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
170+阅读 · 2020年2月13日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
计算机类 | SIGMETRICS 2019等国际会议信息7条
Call4Papers
9+阅读 · 2018年10月23日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
3+阅读 · 2019年11月28日
A Comprehensive Survey on Transfer Learning
Arxiv
120+阅读 · 2019年11月7日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
3+阅读 · 2018年8月27日
Arxiv
7+阅读 · 2018年8月21日
Arxiv
5+阅读 · 2017年4月12日
Top
微信扫码咨询专知VIP会员