本期内容为《走进人工智能》:第6讲 从华丽转身到炼金术之困:深度学习∣第一次知道了“我们是怎么知道的”
《走进人工智能》
你好,这里是吴飞的数字专栏《走进人工智能》。上一讲中我们以人脸识别为例,介绍了机器学习算法随人工智能发展而经历的不同阶段。在专栏的第六讲,我为你准备的内容是“从华丽转身到炼金术之困:深度学习”。深度学习模拟人脑层层递进、逐层抽象的模式,挖掘数据中所蕴含的知识,成为这一轮人工智能崛起的推动力,在自然语言理解、视觉分析、语音识别和信息推荐等领域都表现出良好的性能。这一讲我将重点介绍深度学习早期的发展状况,助力深度学习崛起的算法、数据、算力三要素以及深度学习面临的发展困境。
第一次知道了“我们是怎么知道的”
长久以来,研究者不断探索人类认知的神经基础,在计算载体上对人脑认知机理进行模拟,来实现人工智能算法。
1943年,神经科学家沃伦·麦卡洛克(Warren McCulloch)和逻辑学家沃尔特·皮兹(Walter Pitts)合作提出了以他们名字命名的“MCP神经元”模型。“MCP神经元”模型的目标是模拟人脑中基本神经元的活动模式,通过数学方法构造一个抽象和简化了的模型,用计算机来模拟人的神经元反应过程。若干个MCP神经元前后相连就构成了最早的神经网络雏形。这个成果发布时,二人曾激动地宣布,“我们在科学史上第一次知道了‘我们是怎么知道的’”。MCP模型虽然简单,却开启了建立神经网络大厦地基的征途。
1949年,心理学家唐纳德·赫布(Donald Hebb)提出了著名的赫布理论,指出“神经元之间持续重复的经验刺激可导致突触传递效能增加(Neurons that fire together, wire together)”,“神经元之间突触的强弱变化是学习与记忆的生理学基础”这一理论为联结主义人工智能研究提供了认知神经心理学基础。1958年,大卫·休伯尔(David Hubel)和托斯坦·维厄瑟尔(Torsten Wiesel)在实验中发现小猫后脑皮层中不同视觉神经元与瞳孔所受刺激之间存在某种对应关系,由此发现了一种被称为“方向选择性细胞(orientation selective cell)”的神经元细胞,从而揭示了 “视觉系统信息分层处理”这一机制。由于这一贡献,两人分享了1981年的诺贝尔生理学或医学奖。
产品名称:走进人工智能∣有声通识十五讲
主理人:吴飞
出品机构:高等教育出版社 、高等教育电子音像出版社
合作机构:浙江大学上海高等研究院、上海人工智能实验室智能教育中心
出品时间:2022年1月