In the application of computer-vision based displacement measurement, an optical target is usually required to prove the reference. In the case that the optical target cannot be attached to the measuring objective, edge detection, feature matching and template matching are the most common approaches in target-less photogrammetry. However, their performance significantly relies on parameter settings. This becomes problematic in dynamic scenes where complicated background texture exists and varies over time. To tackle this issue, we propose virtual point tracking for real-time target-less dynamic displacement measurement, incorporating deep learning techniques and domain knowledge. Our approach consists of three steps: 1) automatic calibration for detection of region of interest; 2) virtual point detection for each video frame using deep convolutional neural network; 3) domain-knowledge based rule engine for point tracking in adjacent frames. The proposed approach can be executed on an edge computer in a real-time manner (i.e. over 30 frames per second). We demonstrate our approach for a railway application, where the lateral displacement of the wheel on the rail is measured during operation. We also implement an algorithm using template matching and line detection as the baseline for comparison. The numerical experiments have been performed to evaluate the performance and the latency of our approach in the harsh railway environment with noisy and varying backgrounds.


翻译:在应用基于计算机的迁移测量时,通常需要一个光学目标来证明这一参考。如果光学目标不能与测量目标相连,则光学目标、边缘探测、特征匹配和模板匹配是无目标光度测量的最常见方法。但是,其性能在很大程度上依赖于参数设置。在背景质素复杂且随时间变化变化的动态场景中,这会产生问题。为了解决这一问题,我们建议对实时目标不那么紧的动态迁移测量进行虚拟点跟踪,包括深层学习技巧和域知识。我们的方法包括三个步骤:1) 自动校准,以探测感兴趣的区域;2) 利用深相向神经网络对每个视频框架进行虚拟点探测;3) 以域知识为基础的规则引擎,以在邻近框架进行点跟踪。拟议方法可以实时在边缘计算机上执行(即每秒超过30个框架)。我们展示了铁路应用的方法,在运行期间测量铁路轮的延迟移动。我们还采用一种算法,使用模板匹配和线探测作为基准进行比较。在严酷的环境下进行数字实验,以评估了我们的工作背景和高压。

0
下载
关闭预览

相关内容

《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
跟踪SLAM前沿动态系列之ICCV2019
泡泡机器人SLAM
7+阅读 · 2019年11月23日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Arxiv
0+阅读 · 2021年3月12日
Arxiv
5+阅读 · 2018年4月30日
Arxiv
8+阅读 · 2018年3月20日
Arxiv
9+阅读 · 2018年3月10日
Arxiv
6+阅读 · 2018年2月8日
VIP会员
相关VIP内容
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Top
微信扫码咨询专知VIP会员