最新开源 RGBD+IMU数据集:FMDataset

2019 年 9 月 21 日 计算机视觉life

点击上方“计算机视觉life”,选择“星标”

快速获得最新干货


杭电-清华联合培养博士生朱尊杰等人开源了他们论文“Real-time Indoor Scene Reconstruction with RGBD and Inertia Input”中的数据集。该论文获得了2019 IEEE International Conference on Multimedia and Expo (ICME,CCF B类会议)的最佳学生论文奖。

重点来了,目前作者开源了他们的RGBD+IMU数据集:数据集传送门:

 https://github.com/zhuzunjie17/FastFusion

背景介绍

相机运动估计是三维场景重建中的关键技术。之前的工作均假设相机是缓慢运动的,从而局限了它们在真实场景下的应用。我们提出了一个端到端的三维重建系统,主要利用彩色图像,深度图像以及惯性测量单元的信息实现快速相机运动下的鲁棒重建。我们以扩展卡尔曼滤波为框架来融合这三类输入,并引入迭代的方法来联合优化特征配准,相机姿态估计以及场景几何。我们也提出来一个新颖的考虑几何信息的区块变形技术,从而适应图像层的特征表面变化,实现了快速相机运动下更加准确的特征匹配。实验结果表明我们的区块变形技术提高了特征跟踪的精度,我们的三维重建系统在快速相机运动下优于现有技术。

下面是论文demo:

朱博士之前在计算机视觉life做的关于上述工作的公开课回放视频见:

公开课视频回放 | 基于RGBD和IMU的实时室内SLAM及三维重建

数据集介绍

欢迎大家对论文和数据集批评指正,数据集传送门: 

https://github.com/zhuzunjie17/FastFusion

由于现有的数据集少有考虑快速相机运动且同时包含Color,Depth,IMU输入的。于是他们在论文中使用了自己采集的快速相机运动的数据集Fast Sensor Motion Dataset(FMDataset)。该数据集使用Intel Realsense ZR300传感器采集快速相机运动下的彩色图像,深度图像以及IMU数据,其目的是为了验证slam系统的在不同相机运动速度下的鲁棒性。

数据集共有从6个不同场景中采集的14个视频序列.所有序列依据相机运动速度及彩色图像的模糊程度被区分为慢速,中速和快速。以下是数据集中部分场景的图片:

后续更新计划

论文作者使用Intel Realsense ZR300传感器采集数据集的原因是当时该传感器是最先进的能够同时采集彩色深度图像以及imu数据的传感器。现在微软出了Azure Kinect, 于是在这里我们简略的比较一下两个传感器。Intel Realsense ZR300传感器的优势在于体积小质量轻,一个接口能同时供电传数据;但缺点也很明显,其depth相机的成像质量及测量范围不如Azure Kinect。因此FMDataset在后续也将添加由Azure Kinect采集的数据。


从零开始学习三维视觉核心技术SLAM,扫描查看介绍,3天内无条件退款

早就是优势,学习切忌单打独斗,这里有教程资料、练习作业、答疑解惑等,优质学习圈帮你少走弯路,快速入门!

交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、算法竞赛、图像检测分割、人脸人体、医学影像、自动驾驶、综合等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~

推荐阅读

前段时间参加了个线下交流会(附SLAM入门视频)

从零开始一起学习SLAM | 为什么要学SLAM?

从零开始一起学习SLAM | 学习SLAM到底需要学什么?

从零开始一起学习SLAM | SLAM有什么用?

从零开始一起学习SLAM | C++新特性要不要学?

从零开始一起学习SLAM | 为什么要用齐次坐标?

从零开始一起学习SLAM | 三维空间刚体的旋转

从零开始一起学习SLAM | 为啥需要李群与李代数?

从零开始一起学习SLAM | 相机成像模型

从零开始一起学习SLAM | 不推公式,如何真正理解对极约束?

从零开始一起学习SLAM | 神奇的单应矩阵

从零开始一起学习SLAM | 你好,点云

从零开始一起学习SLAM | 给点云加个滤网

从零开始一起学习SLAM | 点云平滑法线估计

从零开始一起学习SLAM | 点云到网格的进化

从零开始一起学习SLAM | 理解图优化,一步步带你看懂g2o代码

从零开始一起学习SLAM | 掌握g2o顶点编程套路

从零开始一起学习SLAM | 掌握g2o边的代码套路

从零开始一起学习SLAM | ICP原理及应用

从零开始一起学习SLAM | 用四元数插值来对齐IMU和图像帧

可视化理解四元数,愿你不再掉头发

视觉SLAM技术综述

研究SLAM,对编程的要求有多高?

现在开源的RGB-D SLAM有哪些?

详解 | SLAM回环检测问题

汇总 | SLAM、重建、语义相关数据集大全

吐血整理 | SLAM方向国内有哪些优秀的公司?

最强战队 | 三维视觉、SLAM方向全球顶尖实验室汇总

SLAM方向公众号、知乎、博客上有哪些大V可以关注?

汇总 | 最全 SLAM 开源数据集

综述 | SLAM回环检测方法

干货总结 | SLAM 面试常见问题及参考解答
2019 最新SLAM、定位、建图求职分享,看完感觉自己就是小菜鸡!
2019暑期计算机视觉实习应聘总结

2018年SLAM、三维视觉方向求职经验分享

经验分享 | SLAM、3D vision笔试面试问题


最新AI干货,我在看  

登录查看更多
42

相关内容

即时定位与地图构建(SLAM或Simultaneouslocalizationandmapping)是这样一种技术:使得机器人和自动驾驶汽车等设备能在未知环境(没有先验知识的前提下)建立地图,或者在已知环境(已给出该地图的先验知识)中能更新地图,并保证这些设备能在同时追踪它们的当前位置。
3D目标检测进展综述
专知会员服务
186+阅读 · 2020年4月24日
专知会员服务
84+阅读 · 2019年12月13日
汇总 | SLAM、重建、语义相关数据集大全
计算机视觉life
5+阅读 · 2019年5月29日
现在开源的RGB-D SLAM有哪些?
计算机视觉life
30+阅读 · 2019年5月8日
【泡泡一分钟】用于评估视觉惯性里程计的TUM VI数据集
泡泡机器人SLAM
11+阅读 · 2019年1月4日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
【泡泡一分钟】重新认识SfM (CVPR-6)
泡泡机器人SLAM
22+阅读 · 2017年10月20日
Arxiv
3+阅读 · 2018年4月10日
Arxiv
4+阅读 · 2017年11月4日
VIP会员
相关资讯
汇总 | SLAM、重建、语义相关数据集大全
计算机视觉life
5+阅读 · 2019年5月29日
现在开源的RGB-D SLAM有哪些?
计算机视觉life
30+阅读 · 2019年5月8日
【泡泡一分钟】用于评估视觉惯性里程计的TUM VI数据集
泡泡机器人SLAM
11+阅读 · 2019年1月4日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
【泡泡一分钟】重新认识SfM (CVPR-6)
泡泡机器人SLAM
22+阅读 · 2017年10月20日
Top
微信扫码咨询专知VIP会员