项目名称: 使用L1范数的捆绑调整方法研究

项目编号: No.61203276

项目类型: 青年科学基金项目

立项/批准年度: 2013

项目学科: 自动化学科

项目作者: 戴志军

作者单位: 中国地震局地球物理研究所

项目金额: 24万元

中文摘要: 捆绑调整是对具有稀疏耦合特征的参数进行优化的方法,这个方法在三维视觉研究领域有重要应用。经过四十多年的发展,这个方法在使用L2范数的情况下所涉及的理论、算法、及相关优化工具已经比较完善。但经典的L2方法在实际应用中存在对外点敏感的不足之处。L1范数具有和L2范数相类似的几何意义且对外点鲁棒,但采用L1范数存在不可微的问题,当前非线性L1范数的优化方法非常匮乏且效率不高。 为此,本课题研究具有稀疏耦合这种特殊形式的L1范数优化问题。重点解决三个科学问题:初始点选取、原始问题转换为一系列凸问题的高效求解方法、利用稀疏耦合性质的加速方法。然后把方法集成为工具包并应用到相关领域来迭代改进。通过本课题的研究,可望得到高效鲁棒的捆绑调整方法、提高三维重建的精度、改进相关领域的优化方法。因此,本课题的研究具有重要的科学意义和应用价值。

中文关键词: 捆绑调整;L1 范数;多视几何;三维重建;稀疏优化

英文摘要: Bundle adjustment is a method for optimizing parameters with sparse coupling properties. This method plays an important role in the research area of 3D vision. After 40 years development, the theories, algorithms, and tools related with the method using the L2 norm has been matured. However, the classical L2 method is sensitive to outliers in the practical applications. Using the L1 norm has the geometric meaning as well as the L2 norm and it is robust to outliers. However, using the L1 norm has the problem of non-differentiable, and currently for non-linear L1 norm there are only few optimization methods which are not efficient. Thus, we study the L1 norm optimization problem with the special form of sparse coupling. We will put our main efforts on three scientific problems which are the choosing of an initial point, efficient solutions for the methods of conversion from the original problem to convex problems, and the speedup methods by the properties of sparse coupling. After that, we will provide a toolbox for this problem and apply it to related fields for iterative improvements of the methods. Through the research of this project, we are expected to get efficient and robust methods of bundle adjustment, enhance the precision of 3D reconstruction, and improve optimization methods in related fields. Theref

英文关键词: bundle adjustment;L1 norm;multi-view geometry;3d reconstruction;sparse optimization

成为VIP会员查看完整内容
0

相关内容

NeurIPS 2021 | 用简单的梯度下降算法逃离鞍点
专知会员服务
23+阅读 · 2021年12月6日
【经典书】凸优化:算法与复杂度,130页pdf
专知会员服务
80+阅读 · 2021年11月16日
专知会员服务
20+阅读 · 2021年8月24日
专知会员服务
38+阅读 · 2021年8月20日
专知会员服务
14+阅读 · 2021年7月24日
专知会员服务
73+阅读 · 2020年12月7日
最新《图嵌入组合优化》综述论文,40页pdf
专知会员服务
75+阅读 · 2020年8月31日
【ICML2020】机器学习无参数在线优化,294页ppt
专知会员服务
54+阅读 · 2020年8月1日
输入梯度惩罚与参数梯度惩罚的一个不等式
PaperWeekly
0+阅读 · 2021年12月27日
【经典书】凸优化:算法与复杂度,130页pdf
实践教程 | 卷积神经网络压缩方法总结
极市平台
0+阅读 · 2021年10月22日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
使用上下文信息优化CTR预估中的特征嵌入
机器学习与推荐算法
0+阅读 · 2021年8月20日
最全综述:基于深度学习的三维重建算法
极市平台
12+阅读 · 2020年3月17日
从模型到应用,一文读懂因子分解机
AI100
10+阅读 · 2019年9月6日
最全综述 | 图像分割算法
计算机视觉life
14+阅读 · 2019年6月20日
面试题:Word2Vec中为什么使用负采样?
七月在线实验室
46+阅读 · 2019年5月16日
论文浅尝 | 使用变分推理做KBQA
开放知识图谱
13+阅读 · 2018年4月15日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
30+阅读 · 2019年3月13日
Arxiv
10+阅读 · 2018年4月19日
小贴士
相关VIP内容
NeurIPS 2021 | 用简单的梯度下降算法逃离鞍点
专知会员服务
23+阅读 · 2021年12月6日
【经典书】凸优化:算法与复杂度,130页pdf
专知会员服务
80+阅读 · 2021年11月16日
专知会员服务
20+阅读 · 2021年8月24日
专知会员服务
38+阅读 · 2021年8月20日
专知会员服务
14+阅读 · 2021年7月24日
专知会员服务
73+阅读 · 2020年12月7日
最新《图嵌入组合优化》综述论文,40页pdf
专知会员服务
75+阅读 · 2020年8月31日
【ICML2020】机器学习无参数在线优化,294页ppt
专知会员服务
54+阅读 · 2020年8月1日
相关资讯
输入梯度惩罚与参数梯度惩罚的一个不等式
PaperWeekly
0+阅读 · 2021年12月27日
【经典书】凸优化:算法与复杂度,130页pdf
实践教程 | 卷积神经网络压缩方法总结
极市平台
0+阅读 · 2021年10月22日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
使用上下文信息优化CTR预估中的特征嵌入
机器学习与推荐算法
0+阅读 · 2021年8月20日
最全综述:基于深度学习的三维重建算法
极市平台
12+阅读 · 2020年3月17日
从模型到应用,一文读懂因子分解机
AI100
10+阅读 · 2019年9月6日
最全综述 | 图像分割算法
计算机视觉life
14+阅读 · 2019年6月20日
面试题:Word2Vec中为什么使用负采样?
七月在线实验室
46+阅读 · 2019年5月16日
论文浅尝 | 使用变分推理做KBQA
开放知识图谱
13+阅读 · 2018年4月15日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员