神经网络模型是机器学习中的热点研究方向之一,其模型包括网络架构和 神经元模型两部分。在过去半个多世纪的研究中,出现了各种基于不同网络架 构的学习模型与方法,但对基本的神经元模型研究相对较少。人工神经元模型 的建模通常参考生物神经细胞,当前最流行的模型仍是 1943 年提出的 MP 模 型[145] (第一代神经元模型)。七八十年来,学界对非 MP 的新型神经元模型仅有 一些探索,比如 60 年代提出的脉冲神经元模型 (第二代神经元模型)。脉冲神经 元模型在微观尺度上建模了生物神经系统的短程突触可塑性 (short-term synaptic plasticity),具有良好的神经学性质,但尚未在现实应用中展现出计算优势。 本文首先对第二代脉冲神经元模型进行研究,指出该模型的重大缺陷—— 分岔 (bifurcation) 问题。这可能是制约脉冲神经元模型发展的关键因素之一,对 该问题进行修正将显著提升脉冲神经元的计算潜力。然后,本文对第三代神经元 模型进行探索,通过建模生物神经系统中的长程突触可塑性 (long-term synaptic plasticity),首次实现了中观尺度 (mesoscopic scale) 的神经元建模。该探索将极 大地完善现有神经元模型体系。本文对第二代和第三代人工神经元模型展开了 系统研究,主要取得了如下五方面的创新结果:

  1. 脉冲神经元模型分岔问题的发现。通过对一大类脉冲神经元模型的数理性质 进行研究,从理论上揭示了脉冲神经元建模中的 ‘‘分岔” 问题,即脉冲神经 元内的超参数发生小的改变时,模型的功能拓扑会发生急剧变化,从而导致 解空间发生坍缩。分岔问题在脉冲神经元模型中普遍存在,会对脉冲神经元 的数理功能产生严重制约,这可能是脉冲神经网络在现实应用中难以达到优 秀性能的关键阻碍之一。实验验证了上述理论发现。
  2. 脉冲神经元模型分岔问题的修正。对分岔问题进行修正,提出了 BS (Bifurcation Spiking) 神经元模型。该模型通过一组学习参数解耦分岔超参数与系统 特征值之间的关系,以降低超参数值变化对神经元功能拓扑的影响,从而修 正了脉冲神经元模型中的分岔问题。理论表明 BS 神经元模型能够近似连续 时间动力系统,具有强大的表示能力和学习能力。实验验证了 BS 神经元模 型在一些监督学习任务上具有优越的表现。
  3. FT 神经元模型的初始设计实现。对第三代神经元模型的设计和实现进行探 索,提出了 FT (Flexible Transmitter) 新型神经元模型。不同于宏观建模的第 一代 MP 神经元模型和在微观尺度上建模短程突触可塑性的第二代脉冲神经 元模型,FT 模型在中观尺度上建模了受神经递质调节的长程突触可塑性,第 一代 MP 神经元模型可看作 FT 模型的特例。FT 神经元可在复数域内通过新 的反向传播实现计算,兼容于任何网络构架。本文采用最简单的前馈架构实 现了 FT 神经网络模型,并通过实验验证了其有效性。
  4. FT 神经元模型的数理性质研究。数理性质的研究主要关心神经元模型数学 表达式的函数功能,以及实现算法的性能等问题。本文工作从近似理论和优 化理论两方面分析 FT 神经元模型的数理性质,理论展示了 FT 模型相较于 第一代 MP 神经元模型的优势: (1) 逼近径向函数时,FT 神经元模型所需要 的参数数量更少,比 MP 神经元模型少一个量级; (2) 由 FT 神经元搭建的网 络模型更容易收敛到最优解。上述结论不仅从理论上保障了 FT 神经元模型 的合理性,而且展示了开发具有复数运算的神经网络模块的可行性。
  5. FT 神经元模型的计算性质研究。计算性质的研究主要关心神经元模型的可 计算性、可学习性以及时间建模能力等问题。本文工作从预测可学习性理论 和记忆性理论两方面分析 FT 模型的计算性质,理论展示了 FT 模型在时空 数据上的泛化能力和记忆能力: (1) 提出了关于神经网络模型的预测可学习性 理论,并给出了数据依赖情形下的泛化误差界; (2) 提出了基于分数阶估计的 长记忆性判别准则,以评估 FT 神经元模型处理非平稳和变周期时序数据的 能力。上述结果从理论上验证了 FT 神经元模型在时空建模方面的能力。

关键词:机器学习;神经网络;突触可塑性;MP 神经元模型;脉冲神经元模型; FT 神经元模型;机器学习理论;时间序列分析

成为VIP会员查看完整内容
8

相关内容

“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【博士论文】高性能并发图计算优化技术研究
专知会员服务
32+阅读 · 2023年12月13日
【博士论文】基于深度学习的单目场景深度估计方法研究
【博士论文】开放环境下的度量学习研究
专知会员服务
46+阅读 · 2021年12月4日
【博士论文】机器学习中的标记增强理论 与应用研究
专知会员服务
29+阅读 · 2021年12月3日
专知会员服务
55+阅读 · 2020年12月20日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
30+阅读 · 2020年12月14日
【博士论文】辨识性特征学习及在细粒度分析中的应用
专知会员服务
29+阅读 · 2020年12月10日
专知会员服务
73+阅读 · 2020年12月7日
【MIT博士论文】数据高效强化学习,176页pdf
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
最新《动态网络嵌入》综述论文,25页pdf
专知
34+阅读 · 2020年6月17日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Arxiv
156+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
20+阅读 · 2023年3月17日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关VIP内容
【博士论文】高性能并发图计算优化技术研究
专知会员服务
32+阅读 · 2023年12月13日
【博士论文】基于深度学习的单目场景深度估计方法研究
【博士论文】开放环境下的度量学习研究
专知会员服务
46+阅读 · 2021年12月4日
【博士论文】机器学习中的标记增强理论 与应用研究
专知会员服务
29+阅读 · 2021年12月3日
专知会员服务
55+阅读 · 2020年12月20日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
30+阅读 · 2020年12月14日
【博士论文】辨识性特征学习及在细粒度分析中的应用
专知会员服务
29+阅读 · 2020年12月10日
专知会员服务
73+阅读 · 2020年12月7日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员