项目名称: 自然场景下机器人大范围视觉伺服研究

项目编号: No.61203345

项目类型: 青年科学基金项目

立项/批准年度: 2013

项目学科: 自动化学科

项目作者: 辛菁

作者单位: 西安理工大学

项目金额: 24万元

中文摘要: 目前在自然场景下大范围机器人视觉伺服研究方面存在着需要人工标记,大范围伺服过程中目标易偏离摄像机视场等问题。为此,本项目提出基于仿射不变特征的机器人自适应免疫变焦视觉伺服控制策略。利用仿射不变特征检测算法检测出适合自然场景下机器人大范围视觉伺服任务的仿射不变特征,在此基础上结合改进的极线几何约束设计鲁棒的特征匹配算法、实现自然场景下无人工标记的一般物体的特征提取。通过在机器人视觉伺服技术中引入主动焦距控制,动态调整摄像机视场的大小以保证特征点始终在视场内同时在伺服末期获得较高的目标局部分辨率。利用投影不变性构造一个与摄像机内参数无关只与摄像机与目标的相对位置相关的误差函数,基于李雅普洛夫稳定性理论自适应估计出变焦图象雅可比矩阵,在此基础上设计出基于仿射不变特征的机器人自适应免疫变焦视觉伺服控制律,实现自然场景下机器人大范围视觉伺服。本项研究不仅具有重要的理论创新意义而且具有广阔的应用前景。

中文关键词: 自然场景;大范围视觉伺服;仿射不变特征;变焦控制;不变空间

英文摘要: At present, in the most robot visual servoing researches, object feature extraction process is oversimplified by using a fiducial markers and object could get out of the field of view of the camera during the robot large displacement motion. In order to solve the above problems, a robot adaptive immune zooming visual servoing method using affine invariant image features is proposed. Firstly, in order to deal with large viewpoint changes and that do not rely on specific markers in various illumination conditions and achieve feature extraction for the more general object in the nature scenes , affine invariant features, which can be suitable to the task of robot large displacement visual servoing under the natural scenes, are detected by the affine invariant feature detector, and feature matching is achieved by a robust image matching algorithm based on the improved epiploar geometry constraints. Secondly, a zoom control mechanism is introduced into the robot visual servoing system, which enable dynamic adjustment of field of view of the camera to keep all the feature points of the object in the field of view of the camera and get the high object local resolution in the end of visual servoing. Finally, system error function can be constructed by projective invariant property, this error is invariant to the change

英文关键词: nature scenes;large displacement visual servoing;affine invariant feature;zoom control;invariant space

成为VIP会员查看完整内容
1

相关内容

【CVPR2022】多机器人协同主动建图算法
专知会员服务
46+阅读 · 2022年4月3日
【博士论文】基于深度学习的单目场景深度估计方法研究
国防科大《视觉-语言导航》综述论文,24页pdf154篇文献
专知会员服务
60+阅读 · 2021年8月27日
专知会员服务
66+阅读 · 2021年5月21日
【CVPR2021】自监督几何感知
专知会员服务
45+阅读 · 2021年3月6日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
专知会员服务
86+阅读 · 2019年12月13日
自动化所团队提出视触觉传感技术新路线!让机器人拥有更敏锐触觉
中国科学院自动化研究所
3+阅读 · 2021年9月10日
计算机视觉方向简介 | 多视角立体视觉MVS
计算机视觉life
14+阅读 · 2019年10月10日
【泡泡图灵智库】通过基准标志匹配改善的SFM算法(ECCV)
【泡泡机器人】也来谈语义SLAM/语义地图
泡泡机器人SLAM
21+阅读 · 2019年3月12日
视觉SLAM技术综述
计算机视觉life
25+阅读 · 2019年1月4日
目标跟踪算法分类
大数据技术
13+阅读 · 2018年9月17日
干货|全景视频拼接的关键技术分析
全球人工智能
13+阅读 · 2017年7月15日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
14+阅读 · 2021年6月30日
Arxiv
103+阅读 · 2021年6月8日
Arxiv
10+阅读 · 2020年11月26日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Deep Learning in Video Multi-Object Tracking: A Survey
Arxiv
57+阅读 · 2019年7月31日
Arxiv
22+阅读 · 2018年8月30日
小贴士
相关VIP内容
【CVPR2022】多机器人协同主动建图算法
专知会员服务
46+阅读 · 2022年4月3日
【博士论文】基于深度学习的单目场景深度估计方法研究
国防科大《视觉-语言导航》综述论文,24页pdf154篇文献
专知会员服务
60+阅读 · 2021年8月27日
专知会员服务
66+阅读 · 2021年5月21日
【CVPR2021】自监督几何感知
专知会员服务
45+阅读 · 2021年3月6日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
专知会员服务
86+阅读 · 2019年12月13日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月19日
Arxiv
14+阅读 · 2021年6月30日
Arxiv
103+阅读 · 2021年6月8日
Arxiv
10+阅读 · 2020年11月26日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Deep Learning in Video Multi-Object Tracking: A Survey
Arxiv
57+阅读 · 2019年7月31日
Arxiv
22+阅读 · 2018年8月30日
微信扫码咨询专知VIP会员