如何简单形象又有趣地讲解神经网络是什么?

2018 年 1 月 5 日 算法与数据结构

导语: 干货来了,Udacity Machine Learning 课程导师 Walker 亲自出马,教你简单形象有趣地掌握神经网络!


神经网络是什么?神经网络就是一系列简单的节点,在简单的组合下,表达一个复杂的函数。下面我们来一个个解释。




线性节点 



节点是一个简单的函数模型,有输入,有输出。

1、最简单的线性节点x+y


我能想到的最简单的线性节点当然就是 。 



2、参数化线形节点ax+by


是一个特殊的线形组合,我们可以一般化所有xy的线性组合即 ax by。这  a就是这个节点的参数。不同的参数可以让节点表示不同的函数,但节点的结构是一样的。



3、多输入线性节点a1xa2xa3x3+...+anxn

我们进一步把 个输入一般化成任意多个输入。这里 a1,a2,a3,...a是这个节点的参数。同样,不同的参数可以让节点表示不同的函数,但节点的结构是一样的。注意 并非是这个节点的参数,输入个数不同的节点结构是不一样的。 


4、 线性节点的向量表达aTx


上面的式子太过冗长,我们用向量 表示输入向量 (x1x2, . . . , xn), 用向量 表示参数向量  (a1,a2,...,an)不难证明aTx=a1x+a2x+a3x3+...+anxn这里向量 就是这个节点的参数,这个参数的维度与输入向量的维度相同。 




5、带常量的线性节点aTx+b


有时我们希望即使输入全部为 的时候,线形节点依然可以有输出,因此引入一个新的参数 作为偏差项,以此来增加模型的表达性。有时,为了简化,我们会把表达式写作 ax此时,= (x1,x2,...,xn,1),= (a1,a2,...,an,b


6、带激活函数的线性节点1(a> 0)


对于二项分类问题,函数的输出只是真或假,即 或 1。函数 1 : → {1, 0} 将真命题映射到 1, 将假命题映射到 0。 




线性节点实例



1、线性节点表达 ∨ (或函数) ,或函数的真值表如下

定义节点 1(− 0.5 > 0), 不难验证,它与 ∨ 是等价的。 



2、线性节点表达 x ∧ y (与函数) ,与函数的真值表如下: 


定义节点 1(− 1.5 > 0), 不难验证,它与 ∧ 是等价的。 




线性节点的表达力



单个线性节点可以表达所有线性函数(函数值域为实数集)、以及所有线性可分的分类 (函数值域为{0, 1})。概念定义和命题的证明我们这里不再阐述。虽然单个线性节点已经很强 ,但依然有图的局限性。对于线性不可分的函数,它无能为力, 例如异或函数 ⊕ 




线性节点的组合



1、多个线性节点同层组合WTx


上述的线性节点输入是多维的,但输出只是一维,即一个实数。如果我们想要多维的输出,那么就可以并列放置多个节点。设 a1 ,a2 ,...,am 分别是 个节点的参数,那么输出则分别为 a1Tx,a2Tx,...,amx最终的输出结果为  




其中 = [a1,a2,...,am是一个 n 行m 列的参数矩阵。 



2、多层线性节点:


多层线性节点中,某一层带激活函数的线性节点,输出作为下一层的输入 。通常中间层(或者隐藏层,图中的蓝色节点)会带有一个激活函数,来增加模型的表达力 。(思考如果隐藏层没有激活函数,为什么两层线性节点和一层等价?) 

多层线性节点实例


1. 多层表达异或函数 ⊕ y,异或函数的真值表为: 


这是一个不可线性分隔的函数,不可以一个线性节点表达。但我们可以使用多层的线性节点来完成这个任务。





多层线性节点的表达力



可以证明,多层神经元可以表达所有连续函数。证明比较复杂,有兴趣的粉丝可以去看下A visual proof that neural nets can compute any function






总结


其实在本篇文章中,我们还有很多常见的节点没有讲到, 如 ReLu, sigmoid, dropout 等。神经网络不仅有正向计算,还有反向传导,这些节点的出现和反向传导息息相关。有机会的话,Walker老师会再来写一篇文章分享。


如果你也想加入人工智能浪潮,在职场中挖掘新的机会、成为顶尖技术人才,让来自硅谷的 Udacity 帮助你零基础成为深度学习高手!


硅谷前沿科技教育平台 Udacity 联手无人车之父 Sebastian Thrun、GANs 之父 Ian Goodfellow 和谷歌 Deepmind 科学家 Andrew Trask 等顶级专家,推出「深度学习基石纳米学位项目!这门课将用充满活力的硅谷方式,通过充满互动的视频、独家实战项目和个性化学习辅导,带你由浅入深地探索这个领域。



毕业时,你将做好准备,在人工智能、无人驾驶等应用方向上大展拳脚。你还将获得 Udacity 的就业推荐服务获得更多加入IBM、腾讯、滴滴出行等领先科技企业的机会!


Udacity 顶尖合作名企



在学习过程中,你不仅可以获得硅谷顶级讲师的指导,还将挑战超酷实战项目,并享受 Udacity 导师指导、逐行代码审核、同步学习小组等学习服务。每周投入10个小时,你就可以 零基础 成为 硅谷认证 的深度学习高手!


 如何加入这么酷的课程? 


扫描下方二维码,了解 深度学习基石纳米学位 详情:



课程将于 1月24日 正式开放报名!本期限定 35长按扫描上方二维码,加入开课通知群。

* 免费获得独家深度学习终极职业指南》

* 体验硅谷式仿真课堂;

* 同行交流和课程答疑。



点击 [阅读原文] ,给自己一个成为硅谷认证深度学习高手的机会!


登录查看更多
5

相关内容

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。 最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能特性。
一份简明有趣的Python学习教程,42页pdf
专知会员服务
76+阅读 · 2020年6月22日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
【模型泛化教程】标签平滑与Keras, TensorFlow,和深度学习
专知会员服务
20+阅读 · 2019年12月31日
【新书】傻瓜式入门深度学习,371页pdf
专知会员服务
187+阅读 · 2019年12月28日
【干货】谷歌Joshua Gordon 《TensorFlow 2.0讲解》,63页PPT
专知会员服务
27+阅读 · 2019年11月2日
深度学习算法与架构回顾
专知会员服务
80+阅读 · 2019年10月20日
【吴恩达deeplearning.ai笔记二】通俗讲解神经网络上
机器学习研究会
4+阅读 · 2018年3月10日
通俗理解卷积神经网络(小学生都能看懂)
七月在线实验室
9+阅读 · 2018年1月25日
理解神经网络的激活函数
论智
7+阅读 · 2018年1月8日
小白都能看懂的神经网络入门,快收下吧~
码农翻身
3+阅读 · 2018年1月4日
从零开始:教你如何训练神经网络
机器之心
5+阅读 · 2017年12月11日
干货|浅谈神经网络中激活函数的设计
机器学习研究会
5+阅读 · 2017年10月28日
神经网络中的「注意力」是什么?怎么用?
人工智能学家
5+阅读 · 2017年10月19日
人工神经网络
平均机器
15+阅读 · 2017年7月17日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Seeing What a GAN Cannot Generate
Arxiv
8+阅读 · 2019年10月24日
A Comprehensive Survey on Graph Neural Networks
Arxiv
21+阅读 · 2019年1月3日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Arxiv
4+阅读 · 2018年5月14日
Arxiv
8+阅读 · 2018年5月1日
VIP会员
相关VIP内容
一份简明有趣的Python学习教程,42页pdf
专知会员服务
76+阅读 · 2020年6月22日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
【模型泛化教程】标签平滑与Keras, TensorFlow,和深度学习
专知会员服务
20+阅读 · 2019年12月31日
【新书】傻瓜式入门深度学习,371页pdf
专知会员服务
187+阅读 · 2019年12月28日
【干货】谷歌Joshua Gordon 《TensorFlow 2.0讲解》,63页PPT
专知会员服务
27+阅读 · 2019年11月2日
深度学习算法与架构回顾
专知会员服务
80+阅读 · 2019年10月20日
相关资讯
【吴恩达deeplearning.ai笔记二】通俗讲解神经网络上
机器学习研究会
4+阅读 · 2018年3月10日
通俗理解卷积神经网络(小学生都能看懂)
七月在线实验室
9+阅读 · 2018年1月25日
理解神经网络的激活函数
论智
7+阅读 · 2018年1月8日
小白都能看懂的神经网络入门,快收下吧~
码农翻身
3+阅读 · 2018年1月4日
从零开始:教你如何训练神经网络
机器之心
5+阅读 · 2017年12月11日
干货|浅谈神经网络中激活函数的设计
机器学习研究会
5+阅读 · 2017年10月28日
神经网络中的「注意力」是什么?怎么用?
人工智能学家
5+阅读 · 2017年10月19日
人工神经网络
平均机器
15+阅读 · 2017年7月17日
相关论文
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Seeing What a GAN Cannot Generate
Arxiv
8+阅读 · 2019年10月24日
A Comprehensive Survey on Graph Neural Networks
Arxiv
21+阅读 · 2019年1月3日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Arxiv
4+阅读 · 2018年5月14日
Arxiv
8+阅读 · 2018年5月1日
Top
微信扫码咨询专知VIP会员