各位泡芙们,大家好!
又到了泡泡机器人放送福利的时间了。
【泡泡一分钟】每天都会为大家推送一篇机器人顶级会议文章,到目前为止已经有6个月左右了(除了过年期间,其它时间无一天间断)。
在这些机器人顶级会议中,不乏很多配套的优秀开源代码。
所以,泡泡机器人今天为大家准备了一个开源代码盛宴,让大家在接受最及时的顶级论文的同时,还能够方便快速地找到自己感兴趣的代码,进行学习。
话不多说,下面就是我们为大家准备的代码链接,希望大家能够喜欢。
1.一种用于相机定位的可微RANSAC方法(CVPR-1)
源码地址: https://github.com/cvlab-dresden/DSAC
2.重新认识SfM(CVPR-6)
源码地址: https://github.com/colmap/colmap
3.稠密连接的卷积神经网络(CVPR-11)
源码地址: https://github.com/liuzhuang13/DenseNet
4.用于街景语义分割的全分辨率残差网络(CVPR-12)
源码地址: https://github.com/TobyPDE/FRRN
5.基于单目、双目和立体相机的紧耦合VIO比较研究(ICRA-15)
源码地址: https://github.com/MARSLab-UMN/MARS-VINS
6.3DMatch: 学习用于RGB-D重建的局部几何描述子(CVPR-19)
源码地址: http://3dmatch.cs.princeton.edu/
7.通过对抗性参数最优化实现3D人物位姿检测(3dv-14)
源码地址: https://github.com/jackd/adversarially_parameterized_optimization
8.在低成本的机器人上实现基于云协作的3D建图
源码地址: http://rapyuta.org/ (提供的地址并不是实现的代码,而是机器人云平台Rapyuta的介绍,令人印象深刻)
9.CoSLAM: 针对动态场景设计多相机协同的SLAM系统
源码地址: https://github.com/danping/CoSLAM
10.高效利用数据的分布式视觉SLAM(ICRA-19)
源码地址: http://rpg.ifi.uzh.ch/software_datasets.html(待发布,不过网站上有很多impressive work值得关注)
11.Matterport3D: 从室内RGBD数据集中训练(3dv-22)
源码地址: https://niessner.github.io/Matterport/(包括源码论文数据集的下载)
12.用于无人机单目视觉惯性估计的鲁棒初始化方法(ICRA-20)
源码地址: https://github.com/qintony/M-VINS
13.在无人飞行器上融合视觉-惯性信息实现单目重建稠密地图(ICRA-22)
源码地址: https://github.com/dvorak0/VI-MEAN
14.L2-Net: 用深度学习方法设计块描述子(CVPR-30)
源码地址: https://github.com/yuruntian/L2-Net
15.基于视觉SLAM稀疏特征构建可导航地图(IROS-6)
源码地址: https://github.com/ygling2008/lightweight_mapping
泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!
商业合作及转载请联系liufuqiang_robot@hotmail.com