重建脑科学与AI之间的桥梁,人工神经网络比机器学习更优吗?

2020 年 4 月 29 日 学术头条

几十年来,神经科学在人工智能的研究历程中起到了举足轻重的作用,人工智能的奠基人 Donald Hebb、Warren McCulloch、Marvin Minsky 和 Geoff Hinton 最初的研究动力均源自对他们大脑工作机理的浓厚兴趣,当时的研究人员也一直试图模仿大脑的功能,构建神经科学与人工智能之间的桥梁。

1943 年,美国神经科学家麦卡洛克(Warren McCulloch)和逻辑学家皮茨(Water Pitts)在 “A Logical Calculus of Ideas Immanent in Nervous Activity” 一文中提出了神经元的数学模型,
受人体大脑神经元的启发,机器学习领域早期的重要算法 —— 人工神经网络(Artificial Neural Networks)得以发展。

1949 年,加拿大神经心理学家 Donald Hebb 在《The Organization of Behavior》一书中首次提出的赫布理论,解释了在学习过程中大脑神经元所发生的变化,这一理论为后期机器学习的研究提供了理论支撑。Hebb 提出学习是通过大脑中突触强度的改变而进行的,一个突触强度的改变通常持续数十分钟,而一个神经元(节点)的时钟速度大约为一秒。


然而,从那以后,实验神经科学并没有直接推动机器学习领域的发展,这两门学科似乎都是独立发展的。



4 月 23 日,巴伊兰大学物理系和 Gonda(Goldschmied)多学科脑研究中心的 Ido Kanter 教授等人在《科学报告》杂志上发表了一项最新研究成果,成功地在实验神经科学和高级人工智能学习算法之间重建桥梁。

研究人员根据 Hebb 的理论,通过一项新的神经元培养实验,成功展示了一种受大脑启发的人工神经网络学习机制。
该机制被用于手写数字识别时,其成功率大大超过了传统的机器学习算法。

Ido Kanter 教授说:"我们大脑中的一个学习步骤被认为通常会持续几十分钟甚至更久,而在计算机中,它的学习时间一般为纳秒级。虽然大脑的速度极慢,但其计算能力却超过了最先进的人工智能算法,或者说可以与之相媲美,“



为了重建这一桥梁,研究人员最初作出两个假设:

  • 通常认为大脑学习是极其缓慢的假设可能是错误的;
  • 大脑的动力学系统可能包括加速学习机制。
令人惊讶的是,这两个假设经过实验证明都是正确的。

研究人员采用机械和酶解程序在新生大鼠(Sprague-Dawley)出生后 48 h 内获得其皮层神经元,作为培养对象。实验是在培养的皮层神经元上进行的,这些神经元通过谷氨酸能和氨基丁酸能突触的药理阻断而从它们的网络中分离出来的。

所有实验流程均按照美国国立卫生研究院的《实验室动物护理和使用指南》和巴伊兰大学的《实验室动物护理和使用研究指南》进行,并得到巴伊兰大学动物护理和使用委员会的批准和监督。

这项研究中,研究人员使用 5Hz 的刺激频率,对树突的适应性进行了实验研究,训练模式选取 0.5Hz-1Hz。将神经元培养物置于添加了突触阻滞剂的多电极阵列上,突触阻滞剂从细胞外通过树突刺激一个修补过的神经元。适应过程包括一套 50 对刺激的训练集。经过阈值以上的细胞内刺激后,细胞外刺激没有达到预定的 1-4ms 的延迟。研究人员主要考虑了两个独立的树突状细胞激活神经元时,不同的细胞内外的波峰波形。




实验研究表明,随着训练频率的增加,我们大脑中的适应性会明显加快。

论文第一作者 Shira Sardi 表示:"通过在一秒钟内观察 10 次相同的图像进行学习,其效果不亚于在一个月内观察 1000 次相同的图像。重复相同的图像能迅速增强我们大脑中的适应性,使我们的大脑在几秒钟而不是几十分钟内就能适应。有可能我们大脑中的学习速度更快,但超出了我们目前的实验限制。“

这项研究的另一位作者 Roni Vardi 博士补充道,
利用这种新发现的、受大脑启发的加速学习机制,大大超过了常用的机器学习算法。 如对于手写数字识别,特别是在提供小数据集进行训练的情况下,利用这种新发现的、受大脑启发的加速学习机制,大大超过了常用的机器学习算法的运算速度。


重建从实验神经科学到机器学习的桥梁,有望推进人工智能的进一步发展 ,特别是在有限的训练样本下,类似于人类决策的许多情况,以及机器人控制和网络优化,作出超快的决策。

参考资料:
https://www.eurekalert.org/pub_releases/2020-04/bu-rrt042020.php

https://www.nature.com/articles/s41598-020-63755-5

近期精彩集锦——
【2020科技趋势】: 《2020科技趋势报告》
【AI女神】: 《AI全球最具影响力女性学者报告》
【AI10】: 《浅谈人工智能下一个十年》
【GNN】: 《图神经网络及认知推理》
【AI指数】: 《2019人工智能指数报告》

【3D视觉】:《3D视觉技术白皮书》

点击上方蓝色字体跳转阅读,对话框回复关键词获取资料!


点击阅读原文,查看更多精彩!

登录查看更多
0

相关内容

人工神经网络(Artificial Neural Network,即ANN),它从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。
人机对抗智能技术
专知会员服务
201+阅读 · 2020年5月3日
因果关联学习,Causal Relational Learning
专知会员服务
182+阅读 · 2020年4月21日
《强化学习》简介小册,24页pdf
专知会员服务
272+阅读 · 2020年4月19日
 第八届中国科技大学《计算机图形学》暑期课程课件
专知会员服务
55+阅读 · 2020年3月4日
中科大-人工智能方向专业课程2020《脑与认知科学导论》
类脑计算的前沿论文,看我们推荐的这7篇
人工智能前沿讲习班
21+阅读 · 2019年1月7日
独家 | 一文读懂人工神经网络
数据派THU
12+阅读 · 2018年2月1日
【机器学习】机器学习和深度学习概念入门
产业智能官
11+阅读 · 2018年1月3日
人工智能,机器学习和深度学习之间的差异是什么?
大数据技术
6+阅读 · 2017年11月22日
心理学与脑科学:进展、思考和展望
科技导报
9+阅读 · 2017年10月27日
人工神经网络是否模拟了人类大脑?
数说工作室
9+阅读 · 2017年7月19日
人工神经网络
平均机器
15+阅读 · 2017年7月17日
Efficiently Embedding Dynamic Knowledge Graphs
Arxiv
14+阅读 · 2019年10月15日
Logic Rules Powered Knowledge Graph Embedding
Arxiv
7+阅读 · 2019年3月9日
Arxiv
6+阅读 · 2018年8月27日
VIP会员
相关VIP内容
人机对抗智能技术
专知会员服务
201+阅读 · 2020年5月3日
因果关联学习,Causal Relational Learning
专知会员服务
182+阅读 · 2020年4月21日
《强化学习》简介小册,24页pdf
专知会员服务
272+阅读 · 2020年4月19日
 第八届中国科技大学《计算机图形学》暑期课程课件
专知会员服务
55+阅读 · 2020年3月4日
中科大-人工智能方向专业课程2020《脑与认知科学导论》
相关资讯
类脑计算的前沿论文,看我们推荐的这7篇
人工智能前沿讲习班
21+阅读 · 2019年1月7日
独家 | 一文读懂人工神经网络
数据派THU
12+阅读 · 2018年2月1日
【机器学习】机器学习和深度学习概念入门
产业智能官
11+阅读 · 2018年1月3日
人工智能,机器学习和深度学习之间的差异是什么?
大数据技术
6+阅读 · 2017年11月22日
心理学与脑科学:进展、思考和展望
科技导报
9+阅读 · 2017年10月27日
人工神经网络是否模拟了人类大脑?
数说工作室
9+阅读 · 2017年7月19日
人工神经网络
平均机器
15+阅读 · 2017年7月17日
Top
微信扫码咨询专知VIP会员