超详讲解图像拼接/全景图原理和应用 | 附源码

2019 年 9 月 28 日 计算机视觉life

点击上方“计算机视觉life”,选择“星标”

快速获得最新干货

概述

作者:Thalles Silva  编译:AI算法与图像处理

图像拼接是计算机视觉中最成功的应用之一。如今,很难找到不包含此功能的手机或图像处理API。

在这篇文章中,我们将讨论如何使用Python和OpenCV执行图像拼接。鉴于一对共享一些共同区域的图像,我们的目标是“缝合”它们并创建全景图像场景。

在整篇文章中,我们将介绍一些最着名的计算机视觉技术。这些包括:

  • 关键点检测

  • 局部不变描述符(SIFT,SURF等)

  • 特征匹配

  • 使用RANSAC进行的旋转估计(Homography estimation)

  • 透视畸变(Perspective warping)

我们探索了许多特征提取算子,如SIFT,SURF,BRISK和ORB。你可以使用这款Colab笔记本,甚至可以用你的照片试试。[这里我已经调试好源码并上传到github上面]

特征检测和提取

给定一对像上面那样的图像,我们想要把它们拼接起来创建一个全景场景。值得注意的是,两个图像都需要共享一些共同的区域

此外,即使图片在以下一个或多个方面存在差异,我们的解决方案也必须强大:

  • Scaling

  • Angle

  • Spacial position

  • Capturing devices

朝这个方向迈出的第一步是提取一些感兴趣的关键点和特征。但是,这些功能需要具有一些特殊属性。

我们首先考虑一个简单的解决方案。

关键点检测

一开始可能使用简单些的方法,诸如使用Harris Corners之类的算法提取关键点。然后,我们可以尝试根据欧几里德距离之类的相似度量来匹配相应的关键点。我们知道,角点(corner)有一个很好的属性:它们对旋转是不变的。 这意味着,一旦我们检测到一个角点,如果我们旋转图像,那个角点仍将存在。

但是,如果我们旋转然后缩放图像怎么办?在这种情况下,我们会很难,因为角点不是规模不变的。也就是说,如果我们放大图像,先前检测到的角可能会变成一条线!

总之,我们需要对旋转和缩放不变的特征。这就是SIFT,SURF和ORB等更强大的方法的用武之地。


关键点和描述子

像SIFT和SURF这样的方法试图解决角点检测算法的局限性。
通常,角点检测器算法使用固定大小的内核来检测图像上的感兴趣区域(角点)。很容易看出,当我们缩放图像时,这个内核可能会变得太小或太大。

为了解决这个限制,像SIFT这样的方法使用高斯差分(DoD)。我们的想法是在同一图像的不同比例版本上应用DoD。它还使用相邻像素信息来查找和细化关键点和相应的描述子。

首先,我们需要加载2个图像,查询图片和训练图片。最初,我们首先从两者中提取关键点和描述符。我们可以通过使用OpenCV detectAndCompute()函数一步完成。请注意,为了使用detectAndCompute(),我们需要一个关键点检测器和描述符对象的实例。它可以是ORB,SIFT或SURF等。另外,在将图像馈送到detectAndCompute()之前,我们将它们转换为灰度。

def detectAndDescribe(image, method=None):
  """
  Compute key points and feature descriptors using an specific method
  """
   
  assert method is not None, "You need to define a feature detection method. Values are: 'sift', 'surf'"
   
  # detect and extract features from the image
  if method == 'sift':
      descriptor = cv2.xfeatures2d.SIFT_create()
  elif method == 'surf':
      descriptor = cv2.xfeatures2d.SURF_create()
  elif method == 'brisk':
      descriptor = cv2.BRISK_create()
  elif method == 'orb':
      descriptor = cv2.ORB_create()
       
  # get keypoints and descriptors
  (kps, features) = descriptor.detectAndCompute(image, None)
   
  return (kps, features)

我们对查询和训练的图片都运行detectAndCompute()。此时,我们为这两个图像提供了一组关键点和描述子。如果我们使用SIFT作为特征提取器,它将为每个关键点返回128维特征向量。如果选择SURF,我们将获得64维特征向量。以下图像显示了使用SIFT,SURF,BRISK和ORB提取的一些功能。


使用SIFT检测关键点和描述子

使用SURF检测关键点和描述子

使用BRISK和汉明距离检测关键点和描述子

使用ORB和汉明距离检测关键点和描述子


特征匹配

我们可以看到,我们从两个图像中都有大量的特征。
现在,我们想比较两组特征并以线段相连的形式显示更多相似性的特征点对。
使用OpenCV,功能匹配需要Matcher对象。在这里,我们探索两种方法:


  • Brute Force Matcher(暴力匹配法)

  • KNN(k-最近邻)

BruteForce(BF)Matcher正如其名称所表明的那样。给定2组特征(来自图片A和图片B),来自集合A的每个特征与集合B中的所有特征进行比较。默认情况下,BF匹配器计算 两点之间的欧几里德距离。因此,对于集合A中的每个特征,它返回集合B中最接近的特征。对于SIFT和SURF,OpenCV建议使用欧几里德距离。对于其他特征提取器,如ORB和BRISK,建议使用汉明距离。
要使用OpenCV创建BruteForce Matcher,我们只需要指定2个参数。第一个是距离度量。第二个是crossCheck布尔参数。


  def createMatcher(method,crossCheck):
  "Create and return a Matcher Object"
   
  if method == 'sift' or method == 'surf':
      bf = cv2.BFMatcher(cv2.NORM_L2, crossCheck=crossCheck)
  elif method == 'orb' or method == 'brisk':
      bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=crossCheck)
  return bf


crossCheck bool参数指示两个特征是否必须相互匹配才能被视为有效。换句话说,对于被认为有效的一对特征(f1,f2),f1需要匹配f2,并且f2也必须匹配f1作为最接近的匹配。此过程可确保更强大的匹配功能集,并在原始SIFT文章中进行了描述。
但是,对于我们想要考虑多个候选匹配的情况,我们可以使用基于KNN的匹配过程。

KNN不返回给定特征的单个最佳匹配,而是返回k个最佳匹配

注意,k的值必须是由用户预先定义的。如我们预期的那样,KNN提供了一个更的的候选特征集合。但是,我们需要确保所有这些匹配对在进一步发展之前都是健壮的。


比率测试(Ratio Testing)

为了确保KNN返回的特征具有良好的可比性,SIFT论文的作者提出了一种称为比率测试(Ratio Testing)的技术。基本上,我们迭代KNN返回的每个对并执行距离测试。对于每对特征(f1,f2),如果f1和f2之间的距离在一定比例内,我们保留它,否则,我们将它丢弃。此外,必须手动选择比率值。

从本质上讲,比率测试与BruteForce Matcher的交叉检查选项完成相同的工作。两者都确保一对检测到的特征确实足够近以至于被认为是相似的。下面的2个数字显示了BF和KNN Matcher对SIFT特征的结果。我们选择仅显示100个匹配点以清除可视化。


使用KNN和RIFT测试对SIFT特征进行特征匹配

在SIFT功能上使用Brute Force Matcher进行特征匹配


请注意,即使在KNN中交叉验证——暴力匹配(Brute force)和比率测试之后,某些功能也无法正确匹配。
然而,Matcher算法将为我们提供两个图像中最好的(更相似的)特征集。现在,我们需要获取这些点并找到基于匹配点将2个图像拼接在一起的变换矩阵。

这种转换称为Homography matrix(单应性矩阵)。简而言之,如果Homography是3x3矩阵,可用于许多应用,例如相机姿态估计,透视校正和图像拼接。如果Homography是2D变换。它将点从一个平面(图像)映射到另一个平面。让我们看看我们是如何得到它的。


Estimating the Homograph


RANdom SAmple Consensus或RANSAC是一种适合线性模型的迭代算法。与其他线性回归器不同,RANSAC设计为对异常值具有鲁棒性。
像线性回归这样的模型使用最小二乘估计来使最佳模型适合数据。然而,普通最小二乘法对异常值非常敏感。因此,如果异常值的数量很大,它可能会失败。
RANSAC通过仅使用数据中的 内部子集估计参数来解决此问题。下图显示了线性回归和RANSAC之间的比较。首先,请注意数据集包含相当多的异常值。

我们可以看到线性回归模型很容易受到异常值的影响。那是因为它试图减少平均误差。因此,它倾向于支持最小化从所有数据点到模型本身的总距离的模型。这包括异常值。

相反,RANSAC仅将模型拟合到被识别为内点的点子集上。

这个特性对我们的用例非常重要。在这里,我们将使用RANSAC来估计Homography矩阵。事实证明,Homography对我们传递给它的数据质量非常敏感。因此,重要的是有一个算法(RANSAC)可以过滤明显不属于数据分布的点。


最小二乘与RANSAC模型拟合的比较。请注意数据中的大量异常值


一旦我们得到 estimated Homography,我们需要将其中一个图像变换到一个共同的平面。
在这里,我们将对其中一个图像应用透视变换。基本上,透视变换可以组合一个或多个操作,例如旋转,缩放,平移或剪切。这个想法是转换其中一个图像,使两个图像合并为一个。为此,我们可以使用OpenCV warpPerspective()函数。它采用图像和homography作为输入。然后,它根据homography将源图像变换到目的平面上。


  # Apply panorama correction
width = trainImg.shape[1] + queryImg.shape[1]
height = trainImg.shape[0] + queryImg.shape[0]

result = cv2.warpPerspective(trainImg, H, (width, height))
result[0:queryImg.shape[0], 0:queryImg.shape[1]] = queryImg

plt.figure(figsize=(20,10))
plt.imshow(result)

plt.axis('off')
plt.show()


生成的全景图像如下所示。如我们所见,结果中有几个工件。更具体地说,我们可以看到与图像边界处的照明条件和边缘效应有关的一些问题。理想情况下,我们可以执行后处理技术来标准化直方图匹配等强度。这可能会使结果看起来更加真实。

谢谢阅读!


效果图


demo 2






可能遇到bug

可能存在的报错

(1)Qt 链接报错 version `Qt_5' not found]

python3: relocation error: /usr/lib/x86_64-linux-gnu/libQt5XcbQpa.so.5: symbol _ZN20QPlatformIntegration11screenAddedEP15QPlatformScreenb version Qt_5_PRIVATE_API not defined in file libQt5Gui.so.5 with link time reference

解决方案:https://www.cnblogs.com/sunchaothu/p/9962675.html

(2)AttributeError: module 'cv2.cv2' has no attribute 'xfeatures2d'

需要回退版本到3.4.2.16,记得要先卸载之前安装好的opencv-python

解决方案:https://blog.csdn.net/weixin_43167047/article/details/82841750


代码:https://github.com/DWCTOD/AI_study


原文链接:

https://towardsdatascience.com/image-panorama-stitching-with-opencv-2402bde6b46c


高效对接AI领域项目合作、咨询服务、实习、求职、招聘等需求,背靠25W公众号粉丝,期待和你建立连接,找人找技术不再难!


交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、算法竞赛、图像检测分割、人脸人体、医学影像、自动驾驶、综合等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~

推荐阅读

最全综述 | 医学图像处理

最全综述 | 图像分割算法

最全综述 | 图像目标检测

目标检测技术二十年综述

综述 | CVPR2019目标检测方法进展
参加 CVPR 2019 技术见闻总结

现在投身于计算机视觉是否明智?

如何激怒一个自动驾驶(无人驾驶、智能汽车)爱好者?

原来CNN是这样提取图像特征的。

AI资源对接需求汇总:第1期
AI资源对接需求汇总:第2期
AI资源对接需求汇总:第3期

计算机视觉方向简介 | 人体骨骼关键点检测综述

计算机视觉方向简介 | 人脸识别中的活体检测算法综述

计算机视觉方向简介 | 目标检测最新进展总结与展望

计算机视觉方向简介 | 人脸表情识别

计算机视觉方向简介 | 人脸颜值打分

计算机视觉方向简介 | 深度学习自动构图

计算机视觉方向简介 | 基于RGB-D的3D目标检测

计算机视觉方向简介 | 人体姿态估计


最新AI干货,我在看  

登录查看更多
7

相关内容

图像拼接(image stitching)是指将两张或更多的有重叠部分的影像,拼接成一张全景图或是高分辨率影像的技术。图像拼接有两大步骤:图像配准和图像融合
【新书册】贝叶斯神经网络,41页pdf
专知会员服务
177+阅读 · 2020年6月3日
最新《深度学习行人重识别》综述论文,24页pdf
专知会员服务
80+阅读 · 2020年5月5日
深度神经网络实时物联网图像处理,241页pdf
专知会员服务
76+阅读 · 2020年3月15日
【2020新书】简明机器学习导论,电子书与500页PPT
专知会员服务
200+阅读 · 2020年2月7日
【电子书】C++ Primer Plus 第6版,附PDF
专知会员服务
87+阅读 · 2019年11月25日
实战 | 如何制作一个SLAM轨迹真值获取装置?
计算机视觉life
11+阅读 · 2019年10月16日
【泡泡读者来稿】VINS 论文推导及代码解析(四)
泡泡机器人SLAM
33+阅读 · 2019年3月17日
实战 | 图像矫正技术
计算机视觉life
5+阅读 · 2019年2月28日
教你快速使用OpenCV/Python/dlib进行眨眼检测识别!
全球人工智能
3+阅读 · 2018年1月8日
计算机视觉方向简介 | 阵列相机立体全景拼接
计算机视觉life
6+阅读 · 2018年1月3日
机器学习(26)之K-Means实战与调优详解
机器学习算法与Python学习
4+阅读 · 2017年11月19日
基础|人脸识别的十个关键技术组成及原理!
全球人工智能
5+阅读 · 2017年7月27日
干货|全景视频拼接的关键技术分析
全球人工智能
13+阅读 · 2017年7月15日
Neural Image Captioning
Arxiv
5+阅读 · 2019年7月2日
Foreground-aware Image Inpainting
Arxiv
4+阅读 · 2019年1月17日
Arxiv
12+阅读 · 2018年1月12日
VIP会员
相关VIP内容
【新书册】贝叶斯神经网络,41页pdf
专知会员服务
177+阅读 · 2020年6月3日
最新《深度学习行人重识别》综述论文,24页pdf
专知会员服务
80+阅读 · 2020年5月5日
深度神经网络实时物联网图像处理,241页pdf
专知会员服务
76+阅读 · 2020年3月15日
【2020新书】简明机器学习导论,电子书与500页PPT
专知会员服务
200+阅读 · 2020年2月7日
【电子书】C++ Primer Plus 第6版,附PDF
专知会员服务
87+阅读 · 2019年11月25日
相关资讯
实战 | 如何制作一个SLAM轨迹真值获取装置?
计算机视觉life
11+阅读 · 2019年10月16日
【泡泡读者来稿】VINS 论文推导及代码解析(四)
泡泡机器人SLAM
33+阅读 · 2019年3月17日
实战 | 图像矫正技术
计算机视觉life
5+阅读 · 2019年2月28日
教你快速使用OpenCV/Python/dlib进行眨眼检测识别!
全球人工智能
3+阅读 · 2018年1月8日
计算机视觉方向简介 | 阵列相机立体全景拼接
计算机视觉life
6+阅读 · 2018年1月3日
机器学习(26)之K-Means实战与调优详解
机器学习算法与Python学习
4+阅读 · 2017年11月19日
基础|人脸识别的十个关键技术组成及原理!
全球人工智能
5+阅读 · 2017年7月27日
干货|全景视频拼接的关键技术分析
全球人工智能
13+阅读 · 2017年7月15日
Top
微信扫码咨询专知VIP会员