We present an end-to-end trainable modular event-driven neural architecture that uses local synaptic and threshold adaptation rules to perform transformations between arbitrary spatio-temporal spike patterns. The architecture represents a highly abstracted model of existing Spiking Neural Network (SNN) architectures. The proposed Optimized Deep Event-driven Spiking neural network Architecture (ODESA) can simultaneously learn hierarchical spatio-temporal features at multiple arbitrary time scales. ODESA performs online learning without the use of error back-propagation or the calculation of gradients. Through the use of simple local adaptive selection thresholds at each node, the network rapidly learns to appropriately allocate its neuronal resources at each layer for any given problem without using a real-valued error measure. These adaptive selection thresholds are the central feature of ODESA, ensuring network stability and remarkable robustness to noise as well as to the selection of initial system parameters. Network activations are inherently sparse due to a hard Winner-Take-All (WTA) constraint at each layer. We evaluate the architecture on existing spatio-temporal datasets, including the spike-encoded IRIS and TIDIGITS datasets, as well as a novel set of tasks based on International Morse Code that we created. These tests demonstrate the hierarchical spatio-temporal learning capabilities of ODESA. Through these tests, we demonstrate ODESA can optimally solve practical and highly challenging hierarchical spatio-temporal learning tasks with the minimum possible number of computing nodes.


翻译:我们展示了一个端到端可训练的模块式事件驱动神经结构,该结构使用本地合成和阈值调整规则,在任意的时空螺旋钉模式之间进行转换。该结构代表了现有Spiking神经网络(SNN)结构的高度抽象模型。拟议的优化事件驱动神经网络架构(OSDEA)可以同时学习多个任意时间尺度的等级空间-时空特征。 OSDEA进行在线学习,不使用实际的反演错误或梯度计算。通过在每一个节点使用简单的本地适应性选择阈值,网络迅速学会如何在每一个层为任何特定问题适当分配神经资源,而不使用真实的错误测量。这些适应性选择阈值是ODESA的核心特征,确保网络的稳定性和对噪音以及初始系统参数的选取。 网络启动本质上是稀少的,因为每个层都有硬性Winner-Take-A(WTA) 的精确度-直观性调整或计算梯度限制。我们通过每个节点使用简单本地的系统选择标准选择,通过每个节点选择,对每个节点进行简单的本地的系统选择,我们在每一层-时间级选择数据测试时段的系统测试中,我们评估了现有的空间-时间-时间级选择数据测试,我们对每个层的系统测试,我们评估了每个层-空间-空间-空间-时间级数据测试,这些测试的系统测试显示的系统测试显示的系统测试,这些测试显示的系统-智能数据能力,这些测试,这些测试的系统测试的系统测试显示的系统测试,这些测试显示的系统测试,这些测试显示的系统测试显示这些测试。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
专知会员服务
60+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
【论文】深度学习的数学解释
机器学习研究会
10+阅读 · 2017年12月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
6+阅读 · 2021年10月25日
Arxiv
7+阅读 · 2021年5月13日
Arxiv
6+阅读 · 2020年10月8日
Arxiv
8+阅读 · 2020年6月15日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
3+阅读 · 2018年8月17日
VIP会员
相关VIP内容
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
专知会员服务
60+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
相关资讯
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
【论文】深度学习的数学解释
机器学习研究会
10+阅读 · 2017年12月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
6+阅读 · 2021年10月25日
Arxiv
7+阅读 · 2021年5月13日
Arxiv
6+阅读 · 2020年10月8日
Arxiv
8+阅读 · 2020年6月15日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
3+阅读 · 2018年8月17日
Top
微信扫码咨询专知VIP会员