【PNAS2020-斯坦福】自监督训练的人工神经网络中的涌现语言结构

2020 年 6 月 5 日 专知


本文探讨了大型人工神经网络学习的语言结构知识,通过自监督训练,该模型简单地尝试预测给定上下文中的一个掩蔽词。人类的语言交流是通过词语序列进行的,但是语言理解需要构建丰富的从未被明确观察到的层次结构。这一机制一直是人类语言习得的一个主要奥秘,而工程工作主要是通过在树堆上有监督的句子学习来完成的,这些句子是手写标记的这种潜在结构。然而,我们证明,现代的深度语境化语言模型在没有任何明确监督的情况下学习这种语言结构。我们开发了识别人工神经网络中涌现的语言层次结构的方法,并证明了这些模型中的组件关注于语法关系和回指共指。事实上,我们表明,在这些模型中学习的嵌入的线性转换捕获了解析树的距离,达到了令人惊讶的程度,允许大致重建通常由语言学家假定的句子树结构。这些结果有助于解释为什么这些模型在许多语言理解任务中带来了如此大的改进。


https://www.pnas.org/content/early/2020/06/02/1907367117


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“ELS” 可以获取《【PNAS2020-斯坦福】自监督训练的人工神经网络中的涌现语言结构》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

【ICML2020-西电】用于语言生成的递归层次主题引导RNN
专知会员服务
21+阅读 · 2020年6月30日
基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
BERT技术体系综述论文:40项分析探究BERT如何work
专知会员服务
138+阅读 · 2020年3月1日
BERT进展2019四篇必读论文
专知会员服务
66+阅读 · 2020年1月2日
【Science最新论文】XAI—可解释人工智能简述,机遇与挑战
专知会员服务
159+阅读 · 2019年12月21日
【初学者指南】神经网络中的数学
专知
31+阅读 · 2019年12月16日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
9+阅读 · 2018年10月24日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Arxiv
5+阅读 · 2018年2月26日
Arxiv
7+阅读 · 2018年1月10日
Arxiv
4+阅读 · 2017年11月13日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员