如何评价「神经网络本质不过是初中生都会的复合函数」?

2020 年 2 月 8 日 极市平台

加入极市专业CV交流群,与6000+来自腾讯,华为,百度,北大,清华,中科院等名企名校视觉开发者互动交流!更有机会与李开复老师等大牛群内互动!

同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流。关注 极市平台 公众号 ,回复 加群,立刻申请入群~



问题如何评价「神经网络本质不过是初中生都会的复合函数」?

https://www.zhihu.com/question/359965663

有人说:"神经网络本质上就是一个复合函数,初中生都懂。”
他的理由是:「人工神经网络其实就是个复合函数,也就是类似y=h(g(f(x)))这种简单的东西,是初高中生都会的东西。哪怕深度神经网络,也不过是函数复合程度很高罢了。就是这么个简单得不能再简单的东西,神经网络这种看起来很高大上的单词只不过是某些"计算机人工智能深度学习业界专家"们的骗局,在真正的数学家面前不堪一击。因为它本身就是一场骗局,所以你们知道为什么深度学习的泡沫会崩溃了吧?」。
如何评价这种言论,从数学意义上看他说的真的正确吗?神经网络真的这么简单吗?



知乎高质量回答


一、作者: Towse r
https://www.zhihu.com/question/359965663/answer/928455930
本文来自知乎问答,回答已获作者授权,禁止二次转载

这时候应该安利凝聚态开山鼻祖 Philip Anderson 的雄文 More is Different,建议熟读并背诵全文。考虑到大多数人的英文水平,这里只给出中文翻译版的链接:

多者异也:破缺的对称性与科学层级结构的本质 | 经典回顾
https://mp.weixin.qq.com/s/Rd-i58cluHWPqGymFO30jw

简单摘录两段:

这种想法的主要谬误在于还原论假说从来都不意味着“建构论(constructionist)”假说: 将所有事物还原为简单的基本定律的能力并不意味着从那些基本定律出发并重建整个宇宙的能力。

这个层级结构并不意味着学科 X “仅仅是Y的应用”。 每个新的层级都需要全新的定律、概念和归纳,并且和其前一个层级一样,研究过程需要大量的灵感和创意。 心理学不是应用生物学,生物学也不是应用化学。


二、作者: Yuhang Liu
https://www.zhihu.com/question/359965663/answer/927763066
本文来自知乎问答,回答已获作者授权,禁止二次转载

复合函数并不简单。 了解一点动力系统的人都知道,哪怕是x^2+c这么简单的二次函数,自迭代很多次以后也可以产生非常复杂/混沌的动力学行为。 当然神经网络不一定是从离散动力系统的角度做的,但是非线性函数多重复合,确实可以用来拟合很复杂的映射。 非线性是魔鬼啊,自然界的复杂性大部分来自非线性。

另外定义简单不代表内容简单,哥德巴赫猜想连小学生都看得懂呢。 我相信神经网络里面蕴含非常复杂的数学问题,只是做神经网络的人可能不会把这些问题提炼抽象出来,他们只关注实际模型上的效果。 而且虽然做深度学习的人天天说着要学数学的人加入,但是真正的数学工作者加入以后似乎也没什么有价值的产出啊。 顾险峰用最优传输解释GAN的文章,在业界风评到底如何?


三、作者: 章彦博
https://www.zhihu.com/question/359965663/answer/927773868
本文来自知乎问答,回答已获作者授权,禁止二次转载

说这种话的人,我一般称之为「Trivializer」。 他们喜欢给不平凡的事物强加一个平凡的解读,还美其名曰「本质」。

如果这个「本质」不能容易地解释: 为何神经网络有通用的拟合能力、具有泛化能力、在一些行为上与人脑类似,那这就不叫本质,充其量是另一个表象而已,而且还是个没用的表象。

对于神经网络的惊人特性,这种解读没有做出任何直接解释。 反倒是洋洋自得、大肆批判,「看! 我窥见了本质! 神经网络不过如此!

不,你没有窥见本质。


四、作者: Narc
https://www.zhihu.com/question/359965663/answer/927950604
本文来自知乎问答,仅供学习参考,著作权归作者所有

复合函数其实很不简单:

lambda 演算的所有项都可以只用 S 和 K 这两个函数的复合构造出来,而 lambda 演算却是图灵完备的,各种语言构造都能被 encode 进 lambda 演算,从而成为了程序设计语言理论的基础。

把不少 haskell 初学者挡在门外的 monad 不过是一种特殊的函数复合,而能合成所有控制流的 cps 也只是函数复合而已。

简单的规则可以演生出复杂的系统。 还原论的错误在于只看到了组成高楼的砖块是怎样的,却没有看到砖块是如何搭建成高楼的,而显然后者更加重要。


五、作者: 徐知
https://www.zhihu.com/question/359965663/answer/927767545
本文来自知乎问答,仅供学习参考,著作权归作者所有

这题我最适合回答,因为专业相关。

这是我们第一天上课老师给的一张图:



所以,提出这个观点的人现在正处在图上有一点对应的位置

六、作者: 徐知
https://www.zhihu.com/question/359965663/answer/927767545
本文来自知乎问答,仅供学习参考,著作权归作者所有

以前看到周濂的一段话,感觉挺适合这一类说法的:


我有一个朋友,喜哲学好思辨,最常用的口头禅有两个,一为“不就是”,二为“又怎样”。 这两个说法看似平凡无奇,其实杀伤力超强,前者消解一切理论差异,后者取消所有行动意义,双“枪”在手,连环出击,无往而不利。

“不过是初中生都会的复合函数”,且不说理论和实际应用之间差了多远,您倒是给我说说是怎么个复合法啊。

这种试图给各种复杂的理论(尤其是是那些名字听上去比较高大上的)找一个庸俗化的所谓“本质”的行为,大多数情况下只能说明说出这种话的人水平只能理解那些被他拿来做庸俗化解释相对简单的概念了。 实际上,他们可能连后者都不能真正理解,觉得复合函数就很简单的人有很大可能既不懂神经网络,也不懂复合函数。

你对此有什么看法呢?可以在留言区谈谈你的想法~



-END-



点击 阅读原文,可跳转浏览本文内所有网址链接



*延伸阅读



添加极市小助手微信 (ID : cv-mart) ,备注: 研究方向-姓名-学校/公司-城市 (如:目标检测-小极-北大-深圳),即可申请加入 目标检测、目标跟踪、人脸、工业检测、医学影像、三维&SLAM、图像分割等极市技术交流群 ,更有每月 大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流 一起来让思想之光照的更远吧~




△长按添加极市小助手


△长按关注极市平台


觉得有用麻烦给个在看啦~  

登录查看更多
0

相关内容

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。 最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能特性。
还在修改博士论文?这份《博士论文写作技巧》为你指南
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
真正的神经网络,敢于不学习权重
机器之心
6+阅读 · 2019年6月13日
对ResNet本质的一些思考
极市平台
26+阅读 · 2019年4月27日
SNN,像你的大脑一样工作
中国科学院自动化研究所
80+阅读 · 2018年11月7日
深度学习如何影响运筹学?
AI研习社
5+阅读 · 2017年12月24日
从零开始:教你如何训练神经网络
机器之心
5+阅读 · 2017年12月11日
为什么大家都不戳破深度学习的本质?
36大数据
4+阅读 · 2017年12月7日
【深度学习】神经网络和深度学习简史
产业智能官
8+阅读 · 2017年11月16日
Arxiv
10+阅读 · 2019年2月19日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
14+阅读 · 2018年12月6日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
11+阅读 · 2018年3月23日
Arxiv
5+阅读 · 2015年9月14日
VIP会员
相关资讯
真正的神经网络,敢于不学习权重
机器之心
6+阅读 · 2019年6月13日
对ResNet本质的一些思考
极市平台
26+阅读 · 2019年4月27日
SNN,像你的大脑一样工作
中国科学院自动化研究所
80+阅读 · 2018年11月7日
深度学习如何影响运筹学?
AI研习社
5+阅读 · 2017年12月24日
从零开始:教你如何训练神经网络
机器之心
5+阅读 · 2017年12月11日
为什么大家都不戳破深度学习的本质?
36大数据
4+阅读 · 2017年12月7日
【深度学习】神经网络和深度学习简史
产业智能官
8+阅读 · 2017年11月16日
相关论文
Arxiv
10+阅读 · 2019年2月19日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
14+阅读 · 2018年12月6日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
11+阅读 · 2018年3月23日
Arxiv
5+阅读 · 2015年9月14日
Top
微信扫码咨询专知VIP会员