文章名

Machine Learning Interviews - Machine Learning Systems Design

文章简介

作者长期从事人工智能领域中的自然语言处理工作,最近google人工智能团队结合自然语言预处理,创造了许多自然语言模型,如最近火热的BERT模型。这该文章中作者不仅仅介绍了BERT模型,而且还介绍其最近比较火热的变种,如 RoBERTa, ALBERT, SpanBERT, DistilBERT, SesameBERT, SemBERT, MobileBERT, TinyBERT and CamemBERT。 注意力机制引入深度学习模型。作者讨论的不仅是名为“BERT”的体系结构,而是更正确的基于变压器的体系结构。基于Transformer的架构主要用于语言理解任务的建模,它避免了神经网络中递归的使用,而是完全依赖于自我注意机制来绘制输入和输出之间的全局依赖关系。但背后的数学原理是什么?这就是今天要讨论的。这篇文章的主要内容是让你了解自我关注模块中涉及的数学运算。在本文结束时,您应该能够从头开始编写或编写自我关注模块。本文的目的并不是在自我注意模块中提供不同数值表示和数学运算背后的直观和解释。它也不旨在证明为什么和如何在变形金刚的自我关注(我相信已经有很多)。注意,注意和自我注意之间的区别在本文中也没有详细说明。

文章作者

Raimi Karim,长期从事人工智能研究,是机器学习领域专家级人物,擅长自然语言处理,在研究过程中,主张机器学习要面向实践,面向实际,立志解决当前问题,AI必须要有商业驱动,方能足够长远的发展。

成为VIP会员查看完整内容
44

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
133+阅读 · 2020年2月13日
【文章|BERT三步使用NLP迁移学习】NLP Transfer Learning In 3 Steps
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
一文读懂自注意力机制:8大步骤图解+代码
新智元
153+阅读 · 2019年11月26日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
Self-Attention GAN 中的 self-attention 机制
PaperWeekly
12+阅读 · 2019年3月6日
语义分割 | context relation
极市平台
8+阅读 · 2019年2月9日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
EMNLP 2018 | 为什么使用自注意力机制?
机器之心
8+阅读 · 2018年9月17日
干货 | NLP中的self-attention【自-注意力】机制
机器学习算法与Python学习
12+阅读 · 2018年4月11日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
5+阅读 · 2019年4月21日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
8+阅读 · 2018年5月21日
Arxiv
6+阅读 · 2018年5月18日
Arxiv
17+阅读 · 2018年4月2日
Arxiv
4+阅读 · 2018年3月23日
VIP会员
相关资讯
一文读懂自注意力机制:8大步骤图解+代码
新智元
153+阅读 · 2019年11月26日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
Self-Attention GAN 中的 self-attention 机制
PaperWeekly
12+阅读 · 2019年3月6日
语义分割 | context relation
极市平台
8+阅读 · 2019年2月9日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
EMNLP 2018 | 为什么使用自注意力机制?
机器之心
8+阅读 · 2018年9月17日
干货 | NLP中的self-attention【自-注意力】机制
机器学习算法与Python学习
12+阅读 · 2018年4月11日
相关论文
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
5+阅读 · 2019年4月21日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
8+阅读 · 2018年5月21日
Arxiv
6+阅读 · 2018年5月18日
Arxiv
17+阅读 · 2018年4月2日
Arxiv
4+阅读 · 2018年3月23日
微信扫码咨询专知VIP会员