【南洋理工大学】注意力神经网络,Attention Neural Networks,78页ppt

2019 年 11 月 9 日 专知

【导读】本教程是南洋理工大学CE7454: Deep Learning for Data Science中的一章,作者Xavier Bresson介绍了注意力神经网络。



内容介绍


神经网络 :神经网络根据结构可以分成全连接神经网络(MLP/FC)、卷积神经网络(ConvNets)、与循环神经网络(RNN)。MLP的特点是输入输出的大小时固定的,只适用于线性数据。ConvNets的输入是网格结构,输入的大小也可以改变,在计算机视觉领域有很多应用。RNNs的输入是序列结构,能处理不同长度的序列。它的局限性在于,无法处理过长的数据(50以上),并且处理速度很慢(无法并行处理序列数据)。


集合数据的神经网络:在处理集合数据时,神经网络因不受元素的下标与集合大小的影响。Pooling操作,与SIFT、Word2Vec等都适合在集合数据上应用。注意力操作也适合在集合上运用。


记忆网络:记忆网络的主要思想是需要利用长时的记忆,又可被称为多跳注意力网络.


Transformer: 记忆网络效果强大,但不是突破性的,Transformer是注意力网络的有效形式,它不仅在自然语言处理领域,而且在广义的集合数据上,都是最佳的网络结构。与记忆网络相比,它的优势在于:1. 有多个隐层 2. 多头attention 3. 残差结构


序列到序列Transformer: 序列到序列Transformer即encoder与decoder都是Transformer的结构。它考虑了输入与输出序列之间的注意力。


语言模型Transformer:自然语言处理的基本问题是学习词的表示,并能够根上下文灵活变化,终极目标是能够理解语言。2019年自然语言处理的发展趋势是在大语料库中预训练语言模型,如ELMo,BERT,GPT2等,然后迁移到新的任务中去。


图神经网络Vs 注意力神经网络 图神经网络与注意力网络的联系在于,图神经网络需要预先给定数据之间的关联信息,注意力预先不知道数据之间的关联,而是尝试去发现它。当每个数据点之间两两有边(关系)时,图神经网络与注意力网络是一致的。


代码地址:

https://github.com/xbresson/CE7454_2019/blob/master/codes/labs_lecture13/seq2seq_transformers_demo.ipynb


请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“ANN” 就可以获取所有《注意力神经网络》下载链接~ 


内容预览


更多关于“注意力神经网络Attention Neural Networks”的论文教程等资料,请登录专知网站www.zhuanzhi.ai, 查看


https://www.zhuanzhi.ai/topic/2001413533146763/paper



-END-
专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,或者点击“阅读原文”使用,获取更多AI知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识资料和与专家交流咨询
请加专知小助手微信(扫一扫如下二维码添加), 获取专知VIP会员码 ,加入专知人工智能主题群,咨询技术商务合作~
点击“阅读原文”,注册使用专知
登录查看更多
20

相关内容

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。 最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能特性。
【ICLR2020】图神经网络与图像处理,微分方程,27页ppt
专知会员服务
47+阅读 · 2020年6月6日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
麻省理工2019年深度学习导论课程全套PPT
专知
14+阅读 · 2019年2月15日
Arxiv
6+阅读 · 2019年4月8日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Arxiv
11+阅读 · 2018年5月21日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关VIP内容
【ICLR2020】图神经网络与图像处理,微分方程,27页ppt
专知会员服务
47+阅读 · 2020年6月6日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
Top
微信扫码咨询专知VIP会员