Neuromorphic "event" cameras, designed to mimic the human vision system with asynchronous sensing, unlock a new realm of high-speed and high dynamic range applications. However, researchers often either revert to a framed representation of event data for applications, or build bespoke applications for a particular camera's event data type. To usher in the next era of video systems, accommodate new event camera designs, and explore the benefits to asynchronous video in classical applications, we argue that there is a need for an asynchronous, source-agnostic video representation. In this paper, we introduce a novel, asynchronous intensity representation for both framed and non-framed data sources. We show that our representation can increase intensity precision and greatly reduce the number of samples per pixel compared to grid-based representations. With framed sources, we demonstrate that by permitting a small amount of loss through the temporal averaging of similar pixel values, we can reduce our representational sample rate by more than half, while incurring a drop in VMAF quality score of only 4.5. We also demonstrate lower latency than the state-of-the-art method for fusing and transcoding framed and event camera data to an intensity representation, while maintaining $2000\times$ the temporal resolution. We argue that our method provides the computational efficiency and temporal granularity necessary to build real-time intensity-based applications for event cameras.
翻译:内晶“ 活动” 相机, 旨在以非同步感测来模仿人类视觉系统, 开启一个高速和高动态应用的新领域。 然而, 研究人员往往要么回到一个用于应用程序的事件数据框架, 要么为特定相机事件数据类型建立言语应用程序。 要在下一个时代启用视频系统, 适应新的事件相机设计, 并探索古典应用中非同步视频的好处, 我们争辩说, 需要一种不同步、 源性、 不可知性视频代表。 在本文中, 我们为框架和非框架数据源引入了一种新型的、 超同步的强度代表。 我们显示, 我们的代表比例可以提高密度精确度, 并大大减少每像素样本的数量, 而不是基于网络的表达方式。 我们用框架源来证明, 通过使用类似像素值的时平均时间, 我们可以将代表率降低一半以上, 而 VMAF 质量评分则只有4.5。 我们还展示了一种较低的真实度, 度, 而不是固定的强度代表度, 我们展示了真实度, 和 比例 比例, 而我们使用 比例 的计算方法 提供了我们 的 度 度 的 度 度 的 度 度 度 度 度 度 度 度 的 度 度 度 度 度 度 的 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度