人工神经网络(ANNS)在解决各种认知模式下的感知任务方面显示出很大的经验成功。虽然它们只是受到生物大脑的松散启发,但最近的研究报告称,从任务优化的神经网络中提取的表征与大脑中的神经种群之间存在相当多的相似性。神经网络后来成为一个流行的模型类,用来推断复杂认知功能下的计算原理,反过来,它们也成为一个自然的实验平台,用来应用最初开发的方法来探测神经群体中的信息。在这项工作中,我们利用平均场理论流形分析,从计算神经科学的最新技术,从大规模语境嵌入模型分析语言表示的高维几何。我们从不同的模型族(BERT, RoBERTa, GPT-2等)中探索表征,并找到跨层深度的语言流形出现的证据(例如词性流形和组合范畴语法标签)。我们进一步观察到,不同的编码方案用于获取表示,导致这些语言流形出现在网络的早期或后期层的差异。此外,我们发现这些流形中线性可分性的出现是由流形半径、维数和流形间相关性的联合减少所驱动的。

https://arxiv.org/abs/2006.01095

成为VIP会员查看完整内容
12

相关内容

【ICML2020】小样本目标检测
专知会员服务
90+阅读 · 2020年6月2日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
168+阅读 · 2020年5月27日
【ACL2020-伯克利】预训练Transformer提高分布外鲁棒性
专知会员服务
19+阅读 · 2020年4月14日
【NeurIPS2019报告推荐】公平与表示学习—UIUC Sanmi Koyejo教授
【课程】概率图模型,卡内基梅隆大学邢波
专知会员服务
69+阅读 · 2019年11月4日
实验室学生参加 IJCAI 2019会议并做报告
inpluslab
16+阅读 · 2019年8月25日
图数据表示学习综述论文
专知
52+阅读 · 2019年6月10日
注意力能提高模型可解释性?实验表明:并没有
黑龙江大学自然语言处理实验室
11+阅读 · 2019年4月16日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
多伦多大学“神经网络与机器学习导论(2018年春季)
人工智能头条
14+阅读 · 2018年4月3日
Generating Rationales in Visual Question Answering
Arxiv
5+阅读 · 2020年4月4日
Arxiv
13+阅读 · 2019年1月26日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
7+阅读 · 2018年2月26日
VIP会员
相关资讯
微信扫码咨询专知VIP会员