题目: The Unstoppable Rise of Computational Linguistics in Deep Learning

摘要:

本文追溯了神经网络在自然语言理解任务中的应用历史,并确定了语言的本质对神经网络体系结构发展的关键贡献。重点讨论了基于注意模型中变量绑定及其实例化的重要性,并认为Transformer不是一个序列模型,而是一个诱导结构模型。这一观点导致了对自然语言理解的深度学习架构的研究所面临预测的挑战。

成为VIP会员查看完整内容
8

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
自然语言生成的演变史
专知
25+阅读 · 2019年3月23日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
8+阅读 · 2018年5月15日
VIP会员
相关论文
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
8+阅读 · 2018年5月15日
微信扫码咨询专知VIP会员