基于双目相机的视觉里程计定位技术研究文献综述

 2022-09-24 11:09

{title}{title}

  1. 文献综述(或调研报告):

本课题主要涉及到视觉里程计,故本节对视觉里程计的国内外研究现状进行综述。

  1. 视觉里程计

视觉里程计可以根据系统所配置的相机数分为单目视觉里程计和立体视觉里程计。单目视觉里程计是视觉系统使用单个相机作为图像获取载体,通常又包括利用折反射式的全向视觉里程计和一般透视相机的非全向视觉里程计;立体视觉里程计是视觉系统使用两个或两个以上的相机作为图像获取载体,在相机同步采集图像的过程中,可以根据极线几何的关系和三角测量原理获取景深信息,恢复空间结构。

目前下表中所列的国内外学术科研机构,对VO展开了不同侧重的研究,如表1所示[6]。

表1国内外前沿机构的研究方向

研究机构

侧重方向

清华大学

基于平面的特征匹配、基于深度学习的语义地图

苏黎世大学

直接法、基于新型视觉传感器的VO

慕尼黑大学

直接法

香港科技大学

视觉惯导融合

谷歌

RGB-D相机与惯导融合

苹果

视觉惯导融合

苏黎世联邦理工学院

视觉惯导融合

浙江大学

双目立体视觉

美国国家航空航天局

双目立体视觉

本课题主要针对双目视觉里程计,故这里只列出了双目里程计的调研。

在 Maimone [1]等人的方法中,利用兴趣算子进行特征检测,通过广义归一化相关(pseudo-normalized correlation,PNC)方法进行双目视觉左右图像对之间的特征匹配,计算特征点对应的三维坐标,然后在连续立体图像对中跟踪特征,计算特征点对应的新三维坐标,利用前后两帧的三维坐标的变换恢复相机运动。对于运动估计,先利用最小二乘进行粗略估计,再利用最大似然估计进行精确估计,并在最小二乘估计过程中加入RANSAC 的外点剔除方法。

在 Nister等人[2] 的立体视觉里程计方法中,首先匹配左右图像中的特征点,利用三角测量方法计算观察匹配的三维坐标;其次,在确定数目的图像帧中跟踪特征,并获得其对应的新的三维坐标,计算立体相机的位姿;随后利用优先 RANSAC 迭代提纯;最后,对左右图像中新的特征利用三角测量法计算三维坐标。

在过去十多年里,大范围场景的VO取得了巨大的成功。从VO实现方法上来分,主要分为基于特征点法和基于直接法。

  1. 基于特征点的方法

对于特征点法,Nister是最早开展实时单目大场景VO相关工作[3]。稀疏特征点法的VO是当前的主流方法,它的基本思路是对于每帧新的图像(在立体相机中是一对图像),前两步是检测和匹配2D特征点,通过与之前帧进行对比匹配。二维特征点的重投影从不同图像帧提取共同的3D特征点,这就是图像对应关系(大部分VO实现的时候都假设相机已经校准)。第三步是计算时刻 k-1 和 k 之间的相对运动。根据对应关系是三维或二维,有三种不同的方法,包括 2D-2D,对极约束、P3P、ICP等解决这个问题[4]。相机位姿是根据之前位姿变换得到。除此之外,为了实现迭代优化(捆绑调整)获得更精确的局部轨迹估计,必须基于前 m 帧的深度估计构建局部地图[5]。

  1. 基于直接跟踪的方法

基于像素灰度不变性假设估计相机运动的直接法在近年发展迅猛[8]。直接法从光流发展而来,能够在不提特征(或不计算特征描述)的情况下,通过最小化光度误差(特征点法中最小化特征点的重投影误差),来估计相机运动和像素的空间位置。可以有效地解决特征点法所面临的问题。总的来说,根据空间点 P 多少情况,直接法又分为三类:稀疏直接法、半稠密的直接法和稠密直接法。

2.可行性对比分析

特征点法一直是长期以来比较经典的方法,不过其鲁棒性主要建立于特征点的描述上,一方面越是增强鲁棒性,增加特征点描述的复杂性,也会导致算法复杂度的大幅提高;另一方面,特征点没法应用在特征点较弱的场景,例如墙面上。直接法是近几年比较新颖的方法,它可以适应于特征不够明显的场景下,例如走廊或者光滑的墙面上,具有较强鲁棒性[7]。由于跳过了特征描述和匹配的步骤,直接法,尤其是稀疏直接法,往往能够在极快的速度下运行。它也适用于那些需要构建半稠密或者稠密的地图的需求场景,这是特征点法是无法实现的。但是直接法也存在非凸性、单个像素没有区分度和灰度不变性假设性太牵强等问题,因此其研究和应用仍然没有特征点法成熟,目前只适合于运动较小,图像整体亮度变化不大的情形。

2016年Muller提出了基于光流(直接法)和深度学习的VO [9] ,光流的帧作为CNN的输入,计算旋转和平移,顺序增量式的旋转和平移构建相机运动轨迹地图。实验证明该方法比现有的VO系统具有更高的实时性。

对于视觉里程计,其研究发展始终围绕如何提高算法的鲁棒性、实时性和精确性展开。

3.参考文献:

[1] MAIMONE M,CHENG Yang,MATTHIES L. Two years of visualodometry on the mars exploration rovers:field reports[J]. Journal of Field Robotics,2007,24(3):169-186.

[2] NISTR D,NARODITSKY O,BERGEN J R. Visual odometry[C]//Proc of IEEE Conference on Computer Vision and Pattern Recogni-tion. Washington DC:IEEE Computer Society,2004:652-659.

[3] Nister D,Naroditsky O,Bergen J.Visual odometry[C]//Proceedings of the 2004 IEEE Computer Society Con-ference on Computer Vision and Pattern Recognition,2004:652-659.

[4] Baker S,Matthews I.Lucas-Kanade 20 years on:A uni-fying framework[J].International Journal of Computer Vision,2004,56(3):221-255.

[5] 李宇波, 朱效洲, 卢惠民,等. 视觉里程计技术综述[J]. 计算机应用研究, 2012, 29(8):2801-2805.

[6] 祝朝政, 何明, 杨晟, et al. 单目视觉里程计研究综述[J]. 计算机工程与应用, 2018.

[7] 王彭林, 石守东, 洪小伟. 基于单目视觉和里程计的 SLAM 算法研究[J]. 计算机仿真, 2008, 25(10): 172-175.

[8] Mur-Artal R, Tardoacute;s J D. Orb-slam2: An open-source slam system for monocular,stereo, and rgb-d cameras[J]. IEEE Transactions on Robotics, 2017, 33(5):1255-1262.

[9] Muller P,Savakis A.Flowdometry:An optical flow anddeep learning based approach to visual odometry[C]//Proceedings of Conference on Applications of Computer Vision,2017:624-631.

资料编号:[180110]

  1. 文献综述(或调研报告):

本课题主要涉及到视觉里程计,故本节对视觉里程计的国内外研究现状进行综述。

  1. 视觉里程计

视觉里程计可以根据系统所配置的相机数分为单目视觉里程计和立体视觉里程计。单目视觉里程计是视觉系统使用单个相机作为图像获取载体,通常又包括利用折反射式的全向视觉里程计和一般透视相机的非全向视觉里程计;立体视觉里程计是视觉系统使用两个或两个以上的相机作为图像获取载体,在相机同步采集图像的过程中,可以根据极线几何的关系和三角测量原理获取景深信息,恢复空间结构。

目前下表中所列的国内外学术科研机构,对VO展开了不同侧重的研究,如表1所示[6]。

表1国内外前沿机构的研究方向

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。