上图的矩阵可以看成是传统神经网络中的权重矩阵,但是有两点不同:
0
是不可训练的,这意味着它们在整个优化过程中保持为零;
这一角度可以更好理解传统神经网络和 CNN 之间的联系,其中左图是传统神经网络,右图是 Dense 神经网络视角下的 CNN。灰色连接对应于不可训练的 0。
注意到我们以上是从 3x3 矩阵变成了 2x2,但是通过 zero-padding 我们可以得到 3x3 结果,
具体实现为,
Fast.ai 课程: https://course.fast.ai/
[2]conv-example: https://github.com/fastai/courses/blob/master/deeplearning1/excel/conv-example.xlsx
[3]对应的视频(0:00-14:00): https://www.youtube.com/watch?v=V2h3IOBDvrA
[4]Michael Nielsen 的神经网络与深度学习: http://neuralnetworksanddeeplearning.com/
[5]Realistic views: http://setosa.io/ev/image-kernels/
[6]Visualizing what ConvNets learn: http://cs231n.github.io/understanding-cnn/
- END -
推荐阅读
大幅减少GPU显存占用:可逆残差网络(The Reversible Residual Network)
AINLP-DBC GPU 云服务器租用平台建立,价格足够便宜
关于AINLP
AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLP君微信(id:AINLP2),备注工作/研究方向+加群目的。