Neuromorphic spike data, an upcoming modality with high temporal resolution, has shown promising potential in real-world applications due to its inherent advantage to overcome high-velocity motion blur. However, training the spike depth estimation network holds significant challenges in two aspects: sparse spatial information for dense regression tasks, and difficulties in achieving paired depth labels for temporally intensive spike streams. In this paper, we thus propose a cross-modality cross-domain (BiCross) framework to realize unsupervised spike depth estimation with the help of open-source RGB data. It first transfers cross-modality knowledge from source RGB to mediates simulated source spike data, then realizes cross-domain learning from simulated source spike to target spike data. Specifically, Coarse-to-Fine Knowledge Distillation (CFKD) is introduced to transfer cross-modality knowledge in global and pixel-level in the source domain, which complements sparse spike features by sufficient semantic knowledge of image features. We then propose Uncertainty Guided Teacher-Student (UGTS) method to realize cross-domain learning on spike target domain, ensuring domain-invariant global and pixel-level knowledge of teacher and student model through alignment and uncertainty guided depth selection measurement. To verify the effectiveness of BiCross, we conduct extensive experiments on three scenarios, including Synthetic to Real, Extreme Weather, and Scene Changing. The code and datasets will be released.


翻译:内分层峰值数据是即将推出的一种具有高时间分辨率的模式,在现实世界应用中显示出了充满希望的潜力,因为它具有克服高速运动模糊不清的内在优势。然而,培训尖刺深度估计网络在两个方面都面临重大挑战:密集回归任务的空间信息稀少,在为时间密集的峰值流建立对齐深度标签方面存在困难。在本文件中,我们提出了一个跨模式跨模式跨行业框架,以便在开放源代码 RGB 数据的帮助下实现不受监督的峰值深度估计。它首先将跨模式知识从源代码RGB传输到介质模拟源激增数据,然后实现从模拟源激增到目标峰值数据的交叉学习。具体地说,在源域将全球和像素级的跨模式知识传递到源域,通过对图像特征的足够语义性知识来补充稀薄的峰值深度估计。我们然后建议将“不确定性导师资-测试”(UGTS)到介质模拟源激增数据加热数据,然后实现目标域的跨模式、真实度测深度测深度的师级测算和师测深度测深度测测度的系统,确保全球域域测测测测测测测度的系统,以及师测测测测测测测测测测测度的三等的系统。

0
下载
关闭预览

相关内容

通过学习、实践或探索所获得的认识、判断或技能。
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium4
中国图象图形学学会CSIG
0+阅读 · 2021年11月10日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium2
中国图象图形学学会CSIG
0+阅读 · 2021年11月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
18+阅读 · 2021年6月10日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
Arxiv
19+阅读 · 2018年3月28日
VIP会员
相关VIP内容
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
相关资讯
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium4
中国图象图形学学会CSIG
0+阅读 · 2021年11月10日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium2
中国图象图形学学会CSIG
0+阅读 · 2021年11月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员