题目: “You are grounded!”: Latent Name Artifacts in Pre-trained Language Models

简介:

预训练语言模型(LM)可能会使训练语料库的偏见持续下降到下游模型。 我们将重点放在与给定名称(例如Donald)的表示相关的构件上,这些构件取决于语料库,可能与特定实体相关联,如下一个标记预测(例如Trump)所示。 虽然在某些情况下很有帮助,但在未指定或不适当的情况下也会发生接地。 例如,“唐纳德是一个”而产生的结尾与其他名字的结尾大不相同,并且通常具有比平均水平更高的负面情绪。 我们通过阅读理解证明了对下游任务的潜在影响。 我们的实验表明,对不同语料库进行额外的预训练可能会减轻这种影响。

成为VIP会员查看完整内容
3

相关内容

华盛顿大学(University of Washington)创建于1861年,坐落在美国最适宜居住和工作的城市西雅图,是美国西海岸最古老的大学,是一所世界顶尖的著名大学,长期保持世界大学财政支出和研究经费前三位。华盛顿大学拥有世界最顶尖的教师队伍,拥有29,804名教职员工,包括5803名教师,师生比例为 1:7.3 ,其中众多教授为所在学术领域的世界领导者。
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
图神经网络表达能力的研究综述,41页pdf
专知会员服务
169+阅读 · 2020年3月10日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
171+阅读 · 2020年2月13日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
BERT模型进军视频领域,看你和面就知会做蛋糕
机器之心
10+阅读 · 2019年9月20日
赛尔原创 | EMNLP 2019 常识信息增强的事件表示学习
哈工大SCIR
28+阅读 · 2019年9月12日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
ELMo的朋友圈:预训练语言模型真的一枝独秀吗?
赛尔原创 | 基于转移的语义依存图分析
哈工大SCIR
5+阅读 · 2017年11月20日
Arxiv
21+阅读 · 2019年8月21日
Embedding Logical Queries on Knowledge Graphs
Arxiv
3+阅读 · 2019年2月19日
A Comprehensive Survey on Graph Neural Networks
Arxiv
21+阅读 · 2019年1月3日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Arxiv
4+阅读 · 2018年4月10日
VIP会员
相关VIP内容
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
图神经网络表达能力的研究综述,41页pdf
专知会员服务
169+阅读 · 2020年3月10日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
171+阅读 · 2020年2月13日
相关资讯
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
BERT模型进军视频领域,看你和面就知会做蛋糕
机器之心
10+阅读 · 2019年9月20日
赛尔原创 | EMNLP 2019 常识信息增强的事件表示学习
哈工大SCIR
28+阅读 · 2019年9月12日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
ELMo的朋友圈:预训练语言模型真的一枝独秀吗?
赛尔原创 | 基于转移的语义依存图分析
哈工大SCIR
5+阅读 · 2017年11月20日
相关论文
微信扫码咨询专知VIP会员