Event cameras are inherently suitable for spikingneural networks (SNNS) and have great potential in challenging scenesdue to the advantages of bionics, asynchrony, high dynamic range, and no motion blur.However, novel data augmentations designed for event properties are required to process the unconventional output of these cameras in order to unlock their potential.In this paper, we explore the extraordinary influence of brightness variations due to event properties. Along the way, two novel data augmentation methods, lemph[EventInvert) and lemph(EventDrift) (EventID), are proposedto simulate two basic transformations of this influence.Specifically, EventID inverts or drifts events in the stream through transformationsin temporal and polar domains, thereby generating samples affected by brightness variances.Extensive experiments are carried out on the CIFAR10-DVS, N-Caltech101, and N-CARS datasets.It turns out that this simulation improves generalization by increasing the robustness of models against brightness variations.In addition, EventID is broadly effective, surpassing previous state-of-the-art performances.For example, the spiking neural network model with EventID achieves a state-of-the-art accuracy of 83.501% on the CIFAR10-DVS dataset.


翻译:事件相机本质上适合于突发网络,并且具有巨大的挑战性场景潜力,因为生物精神、无同步、高动态范围以及没有运动模糊。然而,需要为事件特性设计新的数据增强装置,以便处理这些相机的非常规输出,从而释放其潜力。在本文中,我们探讨了由于事件特性而导致的亮度变化的特殊影响。沿途,建议两种新型的数据增强方法,即莱姆弗[静电 Invert]和莱姆夫(静电),模拟这种影响的两个基本变化。 具体地说,事件ID在时间和极地的变异中发生反向或漂浮事件,从而产生受亮度差异影响的样本。在CID10-DVS、N-Caltech101和N-CARS数据集上进行了广泛的实验。结果显示,通过增加模型的稳健健性,防止亮度变异。此外,事件ID在流中具有广泛有效的、超常态性能。

0
下载
关闭预览

相关内容

数据增强在机器学习领域多指采用一些方法(比如数据蒸馏,正负样本均衡等)来提高模型数据集的质量,增强数据。
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
167+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年10月24日
VIP会员
相关资讯
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
相关基金
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员