推荐|自然语言处理的6大核心技术点!

2017 年 11 月 14 日 全球人工智能 Olga Davydova


——免费加入AI技术专家社群>>

——免费加入AI高管投资者群>>

摘要: 什么是人工神经网络?它是如何工作的?在自然语言处理中使用不同类型的人工神经网络到底能达到什么效果?今天我们就通过这篇文章简单地探讨一下这些问题。


人工神经网络是一种基于大脑神经结构的非线性运算模型。它仅通过参考样本便可学习完成诸如分类、预测、决定和可视化等任务。
人工神经网络由许多神经元处理单元广泛连接而成。这些处理单元分为三类,包括输入层、隐含层(可以多于一层)和输出层。


位于输入层的神经元将信息传递到隐含层,隐含层再传递至输出层。每个神经元都有加权输入(突触)、一个激活函数(代表该神经元特定输出的函数)和一个输出。突触是将神经网络转换为参数化系统的可调参数。


激励信号由加权过的输入信号产生,再传递至激励函数以获得输出。常用的激励函数包括线性、阶跃、Sigmoid、双曲正切和线性修正单元(ReLu)函数。
线性函数
f(x)=ax


阶跃函数



Sigmoid函数



双曲正切函数



线性修正单元函数



通过训练对权值进行优化,从而达到最小化预测误差、提高预测准确率的目标。反向传播算法是一种计算损失函数梯度的算法,其常用于确定神经元对误差贡献量。


使用额外的隐含层可以使系统更强大,能够适应更复杂情况。在输入层和输出层间存在多个隐含层的人工神经网络便是深度神经网络(DNNs),它们可以对复杂的非线性关系进行建模。

1.多层感知器(MLP)


多层感知器拥有三个或三个以上节点层。它通过非线性激活函数(主要是双曲正切和Sigmoid函数)对线性不可分数据进行分类。MLP可以被看作是一个有向图,由多个节点层组成,每一层全连接到下一层。其在自然语言处理方面的主要应用是语音识别和机器翻译。

2.卷积神经网络(CNN)


卷积神经网络包括卷积层和池化层两部分。它其实和我们上节所讲述的前馈网络并无太大区别,只是将其中某些层换成了卷积层而已,所以卷积网络也是一种特殊的前馈网络。而这样的结构带来的是更少的参数需求和更深入的网络。
卷积神经网络在图像和语音处理中有着不凡的表现。 在Convolutional Neural Networks for Sentence Classification一文中,Yoon Kim描述了使用卷积神经网络进行文本分类的过程和结果。他建立一个基于word2vec的模型,并从多个基准和维度对它进行了一系列的实验,而令人满意的结果也印证了卷积神经网络的出色。
而 Xiang Zhang和Yann LeCun则在其论文Text Understanding from Scratch中揭示了卷积神经网络可不依赖任何语言知识完成本体分类、情感分析、文本分类等任务。

3.递归神经网络(RNN)


递归神经网络是两种人工神经网络的总称。一种是时间递归神经网络(recurrent neural network),另一种是结构递归神经网络(recursive neural network)。时间递归神经网络的神经元间连接构成有向图,而结构递归神经网络利用相似的神经网络结构递归构造更为复杂的深度网络。两者训练的算法不同,但属于同一算法变体。

4.长短期记忆网络(LSTM)

长短期记忆网络,是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。它是一种含有LSTM区块神经网络,在文献或其他资料中LSTM区块可能被描述成智能网络单元,因为它可以记忆不定时间长度的数值,区块中有一个“门”能够决定输入值是否重要到能被记住以及能不能被输出。
在大规模声学建模和词性分类方面,长短期记忆网络被证明拥有优异性能。

5.序列-序列模型


通常,一个序列到序列模型由两个递归神经网络组成:一个处理输入的编码器和一个产生输出的译码器。编码器和解码器可以使用相同或不同的参数集。
序列-序列模型主要用于问答系统,聊天机器人和机器翻译。

6.浅层神经网络

除了深层神经网络外,浅层模型也是实用且广受欢迎的工具。例如,word2vec是一组浅层模型,用于生成词向量。word2vec可以在百万数量级的词典和上亿的数据集上进行高效地训练,训练结果——词向量可以很好地度量词与词之间的相似性。

总结

在本文中,我们介绍了人工神经网络的不同变体,如多层感知器、卷积神经网络、递归神经网络、长短期记忆网络、序列-序列模型以及浅层神经网络。我们展示了这些网络如何运作,以及它们在自然语言处理任务中的具体应用。我们发现,卷积神经网络主要用于文本分类,而递归神经网络通常用于自然语言生成或机器翻译。(云栖社区翻译)


热门文章推荐

厉害了!吉利宣布收购飞行汽车公司Terrafugia !

周志华:实验表明gcForest是最好的非深度神经网络方法

黑科技|Adobe出图象技术神器!视频也可以PS了!!

史上第一个被授予公民身份的机器人索菲亚和人对答如流!

浙大90后女黑客在GeekPwn2017上秒破人脸识别系统!

周志华点评AlphaGo Zero:这6大特点非常值得注意!

汤晓鸥教授:人工智能让天下没有难吹的牛!

英伟达发布全球首款人工智能全自动驾驶平台

未来 3~5 年内,哪个方向的机器学习人才最紧缺?

中科院步态识别技术:不看脸 50米内在人群中认出你!

登录查看更多
5

相关内容

人工神经网络(Artificial Neural Network,即ANN),它从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
212+阅读 · 2020年4月26日
【论文推荐】文本分析应用的NLP特征推荐
专知会员服务
33+阅读 · 2019年12月8日
深度学习算法与架构回顾
专知会员服务
80+阅读 · 2019年10月20日
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
CCCF专栏 | 自然语言处理中的深度学习:评析与展望
中国计算机学会
8+阅读 · 2019年9月18日
一文读懂LSTM和循环神经网络
七月在线实验室
8+阅读 · 2018年4月18日
深度学习中的五大正则化方法和七大优化策略
全球人工智能
11+阅读 · 2017年12月25日
深度学习基础之LSTM
全球人工智能
28+阅读 · 2017年12月18日
深度学习和普通机器学习之间有何区别?
36大数据
7+阅读 · 2017年12月4日
入门 | 一文概览深度学习中的激活函数
深度学习世界
4+阅读 · 2017年11月3日
推荐|斯坦福大学机器学习:神经网络的表示!
全球人工智能
5+阅读 · 2017年9月20日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
Arxiv
15+阅读 · 2019年6月25日
Arxiv
19+阅读 · 2019年4月5日
Arxiv
5+阅读 · 2018年1月16日
Arxiv
5+阅读 · 2017年9月8日
VIP会员
相关资讯
【论文笔记】自注意力图池化
专知
80+阅读 · 2019年11月18日
CCCF专栏 | 自然语言处理中的深度学习:评析与展望
中国计算机学会
8+阅读 · 2019年9月18日
一文读懂LSTM和循环神经网络
七月在线实验室
8+阅读 · 2018年4月18日
深度学习中的五大正则化方法和七大优化策略
全球人工智能
11+阅读 · 2017年12月25日
深度学习基础之LSTM
全球人工智能
28+阅读 · 2017年12月18日
深度学习和普通机器学习之间有何区别?
36大数据
7+阅读 · 2017年12月4日
入门 | 一文概览深度学习中的激活函数
深度学习世界
4+阅读 · 2017年11月3日
推荐|斯坦福大学机器学习:神经网络的表示!
全球人工智能
5+阅读 · 2017年9月20日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
Top
微信扫码咨询专知VIP会员