【自然语言处理】从CNN视角看在自然语言处理上的应用

2017 年 10 月 29 日 产业智能官 老妖看世界

1. 前言

卷积神经网络(Convolutional Neural Network)最早是应用在计算机视觉当中,而如今 CNN 也早已应用于自然语言处理(Natural Language Processing)的各种任务。

本文主要以 CMU CS 11-747 (Neural Networks for NLP) [1] 课程中 Convolutional Networks for Text 这一章节的内容作为主线进行讲解。本文主要包括了对如下几块内容的讲解,第一部分是对于常见的语言模型在进行文本表示时遇到的问题以及引入卷积神经网络的意义,第二部分是对于卷积神经网络模块的介绍,第三部分主要是介绍一些卷积神经网络应用于自然语言处理中的论文,第四部分主要是对这一篇综述进行总结。

2. 引例

我们首先来看这么一个问题,假设我们需要对句子做情感上的分类。

传统的词袋模型或者连续词袋模型都可以通过构建一个全连接的神经网络对句子进行情感标签的分类。但是这样存在一个问题,我们通过激活函数可以让某些结点激活(例如一个句子里“not”,”hate”这样的较强的特征词),但在这样网络构建里,句子中词语的顺序被忽略,也许同样两个句子都出现了 not 和 hate,但是一个句子(I do not hate this movie)表示的是 good 的情感,另一个句子(I hate this movie and will not choose it)表示的是 bad 的情感。

其实很重要的一点是在刚才上述模型中我们无法捕获像 not hate 这样由连续两个词所构成的关键特征的词的含义。

在语言模型里 n-gram 模型是可以用来解决,想法其实就是将连续的两个词作为一个整体纳入到模型中,这样确实能够解决我们刚才提出的问题。加入 bi-gram,tri-gram 可以让我们捕捉到例如“don’t love”,“not the best”。

但是问题又来了,如果我们使用多元模型,实际训练时的参数是一个非常大的问题,因为假设你有 20000 个词,加入 bi-gram 实际上你就要有 400000000 个词,这样参数训练显然是爆炸的。另外一点,相似的词语在这样的模型中不能共享例如参数权重等,这样就会导致相似词无法获得交互信息。

3. 卷积神经网络结构的认识

利用卷积神经网络实际上是可以解决上述的两个问题。在讲卷积神经网络前,我们先来看两个简单的例子。

假设我去识别出左边这个方框里的猫,实际上在一张图片中猫所处的位置并不重要,它在左边,在右边,还是在底部,其实对于猫来说,它的特征是不变的。我需要在这一部分位置学习的特征也能用在另一部分位置上,所以对于这个图像上的所有位置,我们都能使用同样的学习特征。

而在右边的例子中,假设一句话中是谈论猫咪的,猫咪这个词的意义是否会随它在第一句话还是第二句话而发生改变呢,大部分情况是不变的,所以我们当我们使用一个文本网络时,网络能够学习到什么是猫咪并且可以重复使用,而不是每一次见到它就要重新学习。

接下来我们先来介绍卷积神经网络中各个重要的环节。

3.1 卷积

所以这里我们首先去理解卷积神经网络中卷积的运算。这里我们以图像作为输入。比较容易理解卷积的方法是把卷积想象成作用于矩阵的一个滑动窗口函数。如下面这张图的表示。

滑动窗口又称作卷积核、滤波器或是特征检测器。图中使用 3x3 的卷积核,将卷积核与矩阵对应的部分逐元素相乘,然后求和。对于卷积的运算可以看下面这幅图的解释。

在不改变卷积核权重的情况下,就像拿着一只刷子一样对整个图水平垂直滑动进行卷积运算,这样输出就是经过卷积运算后的输出层。这里有一个对卷积操作的动画演示 [2],可以加深对其的理解。

3.2 什么是卷积神经网络

卷积神经网络其实就是多层卷积运算,然后对每层的卷积输出用非线性激活函数做转换(后面会讲到)。卷积过程中每块局部的输入区域与输出的一个神经元相连接。对每一层应用不同的卷积核,每一种卷积核其实可以理解为对图片的一种特征进行提取,然后将多种特征进行汇总。

以下面这幅图为例,原始的 input 为一幅图片,第一层卷积过后输出层变为 6@28*28,所以这里的卷积核实际上用了 6 个,6 个卷积核代表了对这一张原始图片的六种不同角度的特征提取(例如提取图片左上方的边缘线条,右下方的边缘线条等等)。

feature map 实际上的含义就是特征通道(或者理解为一个图片的不同特征),也可以说就是输出层的深度,这里就是 6,然后后面每一次做卷积操作是都是要对所有的特征通道进行卷积操作以便提取出更高级的特征。这里也涉及到池化层,在下一小节进行讲解。在训练阶段,卷积神经网络会基于你想完成的任务自动学习卷积核的权重值。

例如,在上面这幅图中,第一层 CNN 模型也许学会从原始像素点中检测到一些边缘线条,然后根据边缘线条在第二层检测出一些简单的形状(例如横线条,左弯曲线条,竖线条等),然后基于这些形状检测出更高级的特征,比如一个A字母的上半部分等。最后一层则是利用这些组合的高级特征进行分类。

卷积神经网络中的卷积计算实际上体现了:位置不变性和组合性。位置不变性是因为卷积核是在全图范围内平移,所以并不用关心猫究竟在图片的什么位置。组合性是指每个卷积核对一小块局部区域的低级特征组合形成更高级的特征表示。当然这两点对于句子的建模也是很多的帮助,我们会在后面的例子中提到。

3.3 卷积是如何应用到自然语言处理中

在图像中卷积核通常是对图像的一小块区域进行计算,而在文本中,一句话所构成的词向量作为输入。每一行代表一个词的词向量,所以在处理文本时,卷积核通常覆盖上下几行的词,所以此时卷积核的宽度与输入的宽度相同,通过这样的方式,我们就能够捕捉到多个连续词之间的特征,并且能够在同一类特征计算时中共享权重。下面这张图很好地诠释了刚才的讲解。

3.4 池化层

卷积神经网络的一个重要概念就是池化层,一般是在卷积层之后。池化层对输入做降采样。池化的过程实际上是对卷积层分区域求最大值或者对每个卷积层求最大值。例如,下图就是 2x2 窗口的最大值池化(在自然语言处理中,我们通常对整个输出做池化,每个卷积层只有一个输出值)。

为什么要进行池化操作?

池化首先是可以输出一个固定大小的矩阵,这对于自然语言处理当中输入句子的长度不一有非常大的作用。例如,如果你用了 200 个卷积核,并对每个输出使用最大池化,那么无论卷积核的尺寸是多大,也无论输入数据的维度或者单词个数如何变化,你都将得到一个 200 维的输出。这让你可以应对不同长度的句子和不同大小的卷积核,但总是得到一个相同维度的输出结果,用作最后的分类。

另外池化层在降低数据维度的同时还能够保留显著的特征。每一种卷积核都是用来检测一种特定的特征。在以句子分类中,每一种卷积核可以用来检测某一种含义的词组,如果这种类型的含义的词语出现了,该卷积核的输出值就会非常大,通过池化过程就能够尽可能地将该信息保留下来。

关于池化层几种池化方式会在下面的内容里讲解。

3.5 激活函数

有关激活函数很多细节的讲述在最后的总结会提到。

4. 卷积神经网络结构在自然语言处理的应用

首先我们来介绍第一篇论文 Natural Language Processing (almost) from Scratch,该论文主要是针对原来那种 man-made 的输入特征和人工特征,利用神经网络的方法自动抽取出文本句子更高级的特征用来处理自然语言处理里的各项任务。

例如本文中输入是一个句子序列,输出是对句子中各个词的词性的预测。该文提出了两种方法,一种是滑动窗口的方法(window approach),另一种就是将整个句子作为输入(sentence approach)的方法,两种方法就分别对应着局部和全局的特征。模型结构如下图所示:

window approach

sentence approach

window approach 是根据某一个单词以及其附近固定长度范围内的单词对应的词向量来为单词预测标签。需要注意的是,当处理到一个句子的开始或者结尾的单词的时候,其前后窗口或许不包含单词,这时候我们需要填充技术,为前面或者后面填充象征开始或者结束的符号。

实际上基于窗口的方法已经可以解决很多常见的任务,但是如果一个单词如果非常依赖上下文的单词,且当时这个单词并不在窗口中,这时就需要 sentence approach,这里所使用的卷积操作与卷积神经网络中的卷积操作基本相同。这里需要对句子中的每一个单词进行一次卷积操作,这里池化过程选择最大池化,这里认为句子中大部分的词语对该单词的意义不会有影响。

刚才这篇论文实际上是在池化层中直接选择了最大池化,接下来的这篇论文 A Convolutional Neural Network for Modelling Sentences 对句子级别特征的池化过程进行了改进并且提出了 DCNN 动态卷积网络(Dynamic Convolutional Neural Network),在介绍该论文前首先先来介绍一下常见的几种池化方式。

Max-pooling 最为常见,最大池化是取整个区域的最大值作为特征,在自然语言处理中常用于分类问题,希望观察到的特征是强特征,以便可以区分出是哪一个类别。Average-pooling 通常是用于主题模型,常常是一个句子不止一个主题标签,如果是使用 Max-pooling 的话信息过少,所以使用 Average 的话可以广泛反映这个区域的特征。

最后两个 K-max pooling 是选取一个区域的前 k 个大的特征。Dynamic pooling 是根据网络结构动态调整取特征的个数。最后两个的组合选取,就是该篇论文的亮点。

该论文的亮点首先对句子语义建模,在底层通过组合邻近的词语信息,逐步向上传递,上层则又组合新的语义信息,从而使得句子中相离较远的词语也有交互行为(或者某种语义联系)。从直观上来看,这个模型能够通过词语的组合,再通过池化层提取出句子中重要的语义信息。

另一个亮点就是在池化过程中,该模型采用动态 k-Max 池化,这里池化的结果不是返回一个最大值,而是返回k组最大值,这些最大值是原输入的一个子序列。池化中的参数k可以是一个动态函数,具体的值依赖于输入或者网络的其他参数。该模型的网络结构如下图所示:

这里重点介 绍k-max 池化和动态 k-max 池化。K-max 的好处在于,既提取除了句子中不止一个重要信息,同时保留了它们的顺序。同时,这里取 k 的个数是动态变化的,具体的动态函数如下。

这里需要注意的是 s 代表的是句子长度, L 代表总的卷积层的个数, l 代表的是当前是在几个卷积层,所以可以看出这里的 k 是随着句子的长度和网络深度而改变,我们的直观的感受也能看出初始的句子层提取较多的特征,而到后面提取的特征将会逐渐变少,同时由于 k_top 代表最顶层的卷积层需要提取的个数。

这里的网络结构大多与通常的卷积网络层,但需要注意的是这里有一个 Folding 层(折叠操作层)。这里考虑相邻的两行之间的某种联系,将两行的词向量相加。

该模型亮点很多,总结如下,首先它保留了句子中词序和词语之间的相对位置,同时考虑了句子中相隔较远的词语之间的语义信息,通过动态 k-max pooling 较好地保留句子中多个重要信息且根据句子长度动态变化特征抽取的个数。

刚才这篇论文是对池化过程进行改进,接下来的两篇论文是对卷积层进行了改进。第三篇论文是 Neural Machine Translation in Linear Time,该论文提出了扩张卷积神经网络(Dilated Convolution)应用于机器翻译领域。Dilated convolution 实际上要解决的问题是池化层的池化会损失很多信息(无论该信息是有用还是无用)。

Dilated convolution 的主要贡献就是,如何在去掉池化操作的同时,而不降低网络的感受野。下图理解起来更加容易,卷积的输入像素的间距由 1-2-4-8,虽然没有池化层,但是随着层数越深覆盖的原始输入信息依旧在增加。也就是我们通常卷积核与输入的一个区域的维度大小保持一致,但是去掉池化层后,我们随着深度增加,卷积核的所能覆盖的输入区域扩展一倍。

在该模型中,句子建模时输入是以句子的字符级别开始的,之后随着卷积核所能覆盖的范围扩展,不断地去交互信息,同时还能够保证原始的输入信息不被丢失。

之前的论文中主要是对卷积层和池化层从本身结构上进行改造,下面的这篇论文主要考虑到了本身句子已有依存句法树信息,将其融入到句子的建模中来。

论文 Dependency-based Convolutional Neural Networks for Sentence Embedding便是提出这一想法,模型的想法是,不仅仅是利用句子中相邻的词信息作为特征信息,一个依存句法树的实际上将句子的语义信息关系真正地提取出来,由于整个卷积的过程,句子的语序关系仍然会丢失,通过将依存句法树中父子节点的语序信息兄弟语序信息一起作为输入,可以更加有效地抽取句子的特征。

最后要介绍的一篇论文是有关于句子匹配(Sentence Matching)的问题,基础问题仍然是句子建模。首先,文中提出了一种基于 CNN 的句子建模网络,卷积的作用是从句子中提取出局部的语义组合信息,而多个 Feature Map 则是从多种角度进行提取,也就是保证提取的语义组合的多样性。分别单独地对两个句子进行建模(使用上文中的句子模型),从而得到两个相同且固定长度的向量,然后,将这两个向量作为一个多层感知机(MLP)的输入,最后计算匹配的分数。

这个模型比较简单,但是有一个较大的缺点,两个句子在建模过程中是完全独立的,没有任何交互行为,一直到最后生成抽象的向量表示后才有交互行为,这样做使得句子在抽象建模的过程中会丧失很多语义细节,因此,推出了第二种模型结构。

这种结构提前了两个句子间的交互行为,第一层中,首先取一个固定的卷积窗口 K1 ,然后遍历 Sx 和 Sy 中所有组合的二维矩阵进行卷积,每一个二维矩阵输出一个值,构成 Layer-2,然后进行 2×2 的 Max-pooling,后续的卷积层均是传统的二维卷积操作。

5. 总结/Q&A

本篇综述中具体介绍了卷积神经网络的结构以及应用于自然语言处理中的场景,最后再做一个简单的归纳总结。

还有一些有关卷积神经网络细节上的问题与答案,与大家分享。

Q: 卷积层和池化层有什么区别?

A: 首先可以从结构上可以看出,卷积之后输出层的维度减小,深度变深。但池化层深度不变。同时池化可以把很多数据用最大值或者平均值代替。目的是降低数据量。降低训练的参数。对于输入层,当其中像素在邻域发生微小位移时,池化层的输出是不变的,从而能提升鲁棒性。而卷积则是把数据通过一个卷积核变化成特征,便于后面的分离。

Q: 采用宽卷积的好处有什么?

A: 通过将输入边角的值纳入到滑窗中心进行计算,以便损失更少的信息。

Q: 卷积输出的深度与哪个部件的个数相同?

A: 输出深度(通道)与卷积核(过滤器)的个数相等。

Q: 激活函数通常放在卷积神经网络的那个操作之后?

A: 通常放在卷积层之后。

Q: 为什么激活函数通常都是采用非线性的函数?

A: 如果网络中都采用线性函数的组合,那么线性的组合还是线性,那么使用多次线性组合就等同于使用了一次线性函数。因此采用非线性函数可以来逼近任意函数。

Q: 非线性激活函数中 sigmod 函数存在哪些不足?

A: Sigmod 函数存在饱和状态,尤其是值过大时,当进入饱和状态时,进行梯度下降计算时,很容易出现梯度消失的情况,求导的精确值不能保证。

Q: ReLU 和 SoftPlus 激活函数有哪些优势?

A: 与 sigmod 相比,不存在指数计算,求导计算量变小,同时缓解了过拟合的情况,一部分输出为 0,减少了参数的相互依存。

6. 参考资料

[1] CMU CS 11-747 (Neural Networks for NLP)

http://phontron.com/class/nn4nlp2017/schedule.html#

[2] 卷积操作动画演示

http://cs231n.github.io/convolutional-networks/

[3] 宽/窄卷积动画演示

http://deeplearning.net/software/theano_versions/dev/tutorial/conv_arithmetic.html

[4] Udacity Deep Learning 课程

https://cn.udacity.com/course/deep-learning--ud730

[5] 深度学习入门教程/代码

https://github.com/CreatCodeBuild/TensorFlow-and-DeepLearning-Tutorial

7. 参考文献

• Neural Machine Translation in Linear Time阅读笔记

https://zhuanlan.zhihu.com/p/23795111

• 卷积神经网络(CNN)在句子建模上的应用

http://www.jeyzhang.com/cnn-apply-on-modelling-sentence.html

• 卷积神经网络在自然语言处理的应用

http://www.csdn.net/article/2015-11-11/2826192

 



人工智能赛博物理操作系统

AI-CPS OS

人工智能赛博物理操作系统新一代技术+商业操作系统“AI-CPS OS:云计算+大数据+物联网+区块链+人工智能)分支用来的今天,企业领导者必须了解如何将“技术”全面渗入整个公司、产品等“商业”场景中,利用AI-CPS OS形成数字化+智能化力量,实现行业的重新布局、企业的重新构建和自我的焕然新生。


AI-CPS OS的真正价值并不来自构成技术或功能,而是要以一种传递独特竞争优势的方式将自动化+信息化、智造+产品+服务数据+分析一体化,这种整合方式能够释放新的业务和运营模式。如果不能实现跨功能的更大规模融合,没有颠覆现状的意愿,这些将不可能实现。


领导者无法依靠某种单一战略方法来应对多维度的数字化变革。面对新一代技术+商业操作系统AI-CPS OS颠覆性的数字化+智能化力量,领导者必须在行业、企业与个人这三个层面都保持领先地位:

  1. 重新行业布局:你的世界观要怎样改变才算足够?你必须对行业典范进行怎样的反思?

  2. 重新构建企业:你的企业需要做出什么样的变化?你准备如何重新定义你的公司?

  3. 重新打造自己:你需要成为怎样的人?要重塑自己并在数字化+智能化时代保有领先地位,你必须如何去做?

AI-CPS OS是数字化智能化创新平台,设计思路是将大数据、物联网、区块链和人工智能等无缝整合在云端,可以帮助企业将创新成果融入自身业务体系,实现各个前沿技术在云端的优势协同。AI-CPS OS形成的字化+智能化力量与行业、企业及个人三个层面的交叉,形成了领导力模式,使数字化融入到领导者所在企业与领导方式的核心位置:

  1. 精细种力量能够使人在更加真实、细致的层面观察与感知现实世界和数字化世界正在发生的一切,进而理解和更加精细地进行产品个性化控制、微观业务场景事件和结果控制。

  2. 智能:模型随着时间(数据)的变化而变化,整个系统就具备了智能(自学习)的能力。

  3. 高效:企业需要建立实时或者准实时的数据采集传输、模型预测和响应决策能力,这样智能就从批量性、阶段性的行为变成一个可以实时触达的行为。

  4. 不确定性:数字化变更颠覆和改变了领导者曾经仰仗的思维方式、结构和实践经验,其结果就是形成了复合不确定性这种颠覆性力量。主要的不确定性蕴含于三个领域:技术、文化、制度。

  5. 边界模糊:数字世界与现实世界的不断融合成CPS不仅让人们所知行业的核心产品、经济学定理和可能性都产生了变化,还模糊了不同行业间的界限。这种效应正在向生态系统、企业、客户、产品快速蔓延。

AI-CPS OS形成的数字化+智能化力量通过三个方式激发经济增长:

  1. 创造虚拟劳动力,承担需要适应性和敏捷性的复杂任务,即“智能自动化”,以区别于传统的自动化解决方案;

  2. 对现有劳动力和实物资产进行有利的补充和提升,提高资本效率

  3. 人工智能的普及,将推动多行业的相关创新,开辟崭新的经济增长空间


给决策制定者和商业领袖的建议:

  1. 超越自动化,开启新创新模式:利用具有自主学习和自我控制能力的动态机器智能,为企业创造新商机;

  2. 迎接新一代信息技术,迎接人工智能:无缝整合人类智慧与机器智能,重新

    评估未来的知识和技能类型;

  3. 制定道德规范:切实为人工智能生态系统制定道德准则,并在智能机器的开

    发过程中确定更加明晰的标准和最佳实践;

  4. 重视再分配效应:对人工智能可能带来的冲击做好准备,制定战略帮助面临

    较高失业风险的人群;

  5. 开发数字化+智能化企业所需新能力:员工团队需要积极掌握判断、沟通及想象力和创造力等人类所特有的重要能力。对于中国企业来说,创造兼具包容性和多样性的文化也非常重要。


子曰:“君子和而不同,小人同而不和。”  《论语·子路》云计算、大数据、物联网、区块链和 人工智能,像君子一般融合,一起体现科技就是生产力。


如果说上一次哥伦布地理大发现,拓展的是人类的物理空间。那么这一次地理大发现,拓展的就是人们的数字空间。在数学空间,建立新的商业文明,从而发现新的创富模式,为人类社会带来新的财富空间。云计算,大数据、物联网和区块链,是进入这个数字空间的船,而人工智能就是那船上的帆,哥伦布之帆!


新一代技术+商业的人工智能赛博物理操作系统AI-CPS OS作为新一轮产业变革的核心驱动力,将进一步释放历次科技革命和产业变革积蓄的巨大能量,并创造新的强大引擎。重构生产、分配、交换、消费等经济活动各环节,形成从宏观到微观各领域的智能化新需求,催生新技术、新产品、新产业、新业态、新模式。引发经济结构重大变革,深刻改变人类生产生活方式和思维模式,实现社会生产力的整体跃升。





产业智能官  AI-CPS



用“人工智能赛博物理操作系统新一代技术+商业操作系统“AI-CPS OS:云计算+大数据+物联网+区块链+人工智能)在场景中构建状态感知-实时分析-自主决策-精准执行-学习提升的认知计算和机器智能;实现产业转型升级、DT驱动业务、价值创新创造的产业互联生态链






长按上方二维码关注微信公众号: AI-CPS,更多信息回复:


新技术“云计算”、“大数据”、“物联网”、“区块链”、“人工智能新产业:智能制造”、“智能农业”、“智能金融”、“智能零售”、“智能城市、“智能驾驶”新模式:“财富空间、“特色小镇”、“赛博物理”、“供应链金融”


点击“阅读原文”,访问AI-CPS OS官网




本文系“产业智能官”(公众号ID:AI-CPS)收集整理,转载请注明出处!



版权声明产业智能官(公众号ID:AI-CPS推荐的文章,除非确实无法确认,我们都会注明作者和来源。部分文章推送时未能与原作者取得联系。若涉及版权问题,烦请原作者联系我们,与您共同协商解决。联系、投稿邮箱:erp_vip@hotmail.com





登录查看更多
4

相关内容

思想来自于视觉机制,是对信息进行抽象的过程。
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
212+阅读 · 2020年4月26日
卷积神经网络的概述论文:分析、应用和展望,21页pdf
专知会员服务
90+阅读 · 2020年4月7日
【教程】自然语言处理中的迁移学习原理,41 页PPT
专知会员服务
95+阅读 · 2020年2月8日
知识图谱更新技术研究及其应用,复旦大学硕士论文
专知会员服务
103+阅读 · 2019年11月4日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
229+阅读 · 2019年10月12日
赛尔笔记 | CNN介绍及代码实现
哈工大SCIR
7+阅读 · 2019年1月23日
干货|自然语言处理中的词向量 — word2vec!
全球人工智能
7+阅读 · 2018年1月25日
word2vec在工业界的应用场景
全球人工智能
5+阅读 · 2018年1月7日
漫谈Capsule Network基本原理
深度学习每日摘要
9+阅读 · 2017年12月6日
RNN在自然语言处理中的应用及其PyTorch实现
机器学习研究会
4+阅读 · 2017年12月3日
从CNN视角看在自然语言处理上的应用
人工智能头条
5+阅读 · 2017年10月24日
【推荐】从CNN视角看在自然语言处理上的应用
机器学习研究会
4+阅读 · 2017年10月23日
爱奇艺视频场景下的自然语言处理应用
AI前线
8+阅读 · 2017年10月3日
CNN、RNN在自动特征提取中的应用
乌镇智库
14+阅读 · 2017年8月4日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
Arxiv
6+阅读 · 2019年7月11日
Explanatory Graphs for CNNs
Arxiv
4+阅读 · 2018年12月18日
VIP会员
相关资讯
赛尔笔记 | CNN介绍及代码实现
哈工大SCIR
7+阅读 · 2019年1月23日
干货|自然语言处理中的词向量 — word2vec!
全球人工智能
7+阅读 · 2018年1月25日
word2vec在工业界的应用场景
全球人工智能
5+阅读 · 2018年1月7日
漫谈Capsule Network基本原理
深度学习每日摘要
9+阅读 · 2017年12月6日
RNN在自然语言处理中的应用及其PyTorch实现
机器学习研究会
4+阅读 · 2017年12月3日
从CNN视角看在自然语言处理上的应用
人工智能头条
5+阅读 · 2017年10月24日
【推荐】从CNN视角看在自然语言处理上的应用
机器学习研究会
4+阅读 · 2017年10月23日
爱奇艺视频场景下的自然语言处理应用
AI前线
8+阅读 · 2017年10月3日
CNN、RNN在自动特征提取中的应用
乌镇智库
14+阅读 · 2017年8月4日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
Top
微信扫码咨询专知VIP会员