题目: The Unstoppable Rise of Computational Linguistics in Deep Learning

摘要:

本文追溯了神经网络在自然语言理解任务中的应用历史,并确定了语言的本质对神经网络体系结构发展的关键贡献。重点讨论了基于注意模型中变量绑定及其实例化的重要性,并认为Transformer不是一个序列模型,而是一个诱导结构模型。这一观点导致了对自然语言理解的深度学习架构的研究所面临预测的挑战。

成为VIP会员查看完整内容
7

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
MIT-深度学习Deep Learning State of the Art in 2020,87页ppt
专知会员服务
61+阅读 · 2020年2月17日
【BAAI|2019】用深度学习模拟原子间势,王涵  (附pdf)
专知会员服务
17+阅读 · 2019年11月21日
自然语言生成的演变史
专知
25+阅读 · 2019年3月23日
理解人类推理的深度学习
论智
17+阅读 · 2018年11月7日
我中心3篇长文被ACL 2018录用
哈工大SCIR
5+阅读 · 2018年4月24日
深度学习(Deep Learning)发展史
Linux中国
6+阅读 · 2017年8月2日
Deep Learning for Energy Markets
Arxiv
8+阅读 · 2019年4月10日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
6+阅读 · 2018年1月11日
VIP会员
相关VIP内容
MIT-深度学习Deep Learning State of the Art in 2020,87页ppt
专知会员服务
61+阅读 · 2020年2月17日
【BAAI|2019】用深度学习模拟原子间势,王涵  (附pdf)
专知会员服务
17+阅读 · 2019年11月21日
相关论文
Deep Learning for Energy Markets
Arxiv
8+阅读 · 2019年4月10日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
6+阅读 · 2018年1月11日
微信扫码咨询专知VIP会员