朝向天花板的计算机视觉定位方法设计与实现文献综述

 2023-08-07 16:38:17

文献综述(或调研报告):

激光、雷达、无线网络定位、UWB、视觉定位等都是室内定位中常见的手段。在这些手段当中,基于视觉的定位灵活性最高,成本最低,因此是应用于室内定位的重要手段之一。基于视觉的实时定位技术可以根据是否有已知地图坐标信息分为两类。如果在未知环境中进行定位,则使用SLAM算法解决问题。如果在已知环境中进行定位,则可以结合已知信息,简化定位步骤,采用其他方法解决。

即时定位与导航(simultaneous localization and mapping,SLAM)问题是关于如何在未知的环境中,根据自身对环境的观测确定自身的运动轨迹同时构建环境地图的一类问题。按照传感器的类型,可以分为视觉SLAM、激光SLAM等。视觉SLAM又可分为单目SLAM、双目SLAM、RGB-D SALM等。单目SLAM,指用一个摄像头就完成SLAM算法的所有功能。它的优点是传感器简单,成本低。缺点是包含的信息量少,准确性低,且没有确切的深度信息,可能出现尺度漂移等问题。双目SLAM, 常称为立体视觉SLAM, 通过使用两个并列的相机来实现SLAM算法的功能。双目相机通过依靠两个相机之间的基线和像素位置的差异估计像素点的深度,简化了单目的操作流程。但它的标定非常复杂,计算深度信息非常耗时。RGBD相机最大的特别之处是通过红外结构光或ToF光直接测出各个像素的距离。由于每个像素都有一个距离信息,这使得它能提供的信息更为丰富,计算代价也比较小。存在的主要问题测量范围过小,受噪声影响大,视野小。

SLAM的准确性很大程度依赖于前端视觉里程计算法的准确性。根据视觉里程计(Visual Odometry,VO)算法进行分类,可以将其分为基于直接法的VO,基于特征点法的VO和基于半直接法的VO[1]。基于特征点法的VO的主要思想是从一系列图片帧中提取二维特征,将地图点到当前图像的投影点与匹配点的距离差和,即重投影误差,作为误差函数。通过最小化误差函数来确定位姿的最优解。其中的代表算法是由Mur-Artal等人提出的ORB-SLAM2[2]算法。该算法的优点是在静态环境下定位准确,系统非常稳定,单目和双目版本都可以达到实时。缺点是计算ORB特征耗时,三线程结构,cpu消耗大,难以移植到嵌入式设备。而且在跟踪动态物体和相机纯旋转时容易跟踪失败。基于特征点法的VO无需提取特征或计算特征描述,也不要求一一对应的匹配,而是通过最小化前后帧所有参与求解位姿像素块的灰度差,来计算相对位姿。其中的代表算法是由Engel等人提出的DSO[3]算法。直接法算法的优点是节省特征提取与匹配的大量时间,易于移植到嵌入式系统中,且使用的是像素梯度而不必是角点,可以在特征缺失的场合使用。缺点是灰度不变的假设难以满足,易受曝光和模糊影像的影响。且难以实现回环和重定位。基于半直接法的VO以由Christian Forster等人提出的SVO[4]算法为代表。该算法混合使用了特征点与直接法:它提取了一些FAST角点,不使用描述子,而是采用直接法的求解方法,根据这些关键点周围的信息和灰度不变的假设,直接估计相机位姿。它的优点是速度非常,适用于计算平台受限的场合,缺点是误差大,不准确,尤其在平视相机中表现不佳。

如果已知环境地图及坐标信息,即可采用其他方法,依赖地图进行更精确地定位[5]。如果已知三个或三个以上特征点在空间中的三维信息,则可以通过几个已知世界坐标的特征点,结合他们在相机照片中的像素坐标,求解出相机所在的世界坐标以及旋转角度。该问题被称为PnP问题。该算法在相机标定和重定位中发挥着重要的作用。除此之外,基于视直接匹配框架的定位也是在已知地图的情况下实现实时定位的方法之一。Sattler等人提出了基于视觉词袋模型和主动对应搜索策略的匹配方法[6],用于大规模场景下的实时定位。该方法通过基于运动的结构(Structure From Motion,SFM)方法重建城市场景的3D模型,再通过建立二维图片与三维场景的匹配建立对应关系,实现定位。Li等人设计了一种自适应的、优先排序的算法[7],从完整的场景中提取一组具有代表性的SIFT特征,并使其能够覆盖到完整的场景。之后将预先提取的特征用于查询和与图像相匹配,以实现高效的定位。

此外,还有一些算法使用人工地标来辅助定位,以提高定位的准确性[8]。通过图像处理的方法可以对这些地标进行识别,继而测量这些地标相对于摄像机系统的位置,以此来确定传感器在环境中的位置。Panzieri等人将办公室的吊灯用作地标[9],因为它们形状相同,间隔规则,而且可以很容易地被观察到。Wu等人则在天花板上贴了一个圆形的人工路标[10],因为从下面看天花板上的圆形变成了一个不规则的椭圆,在导航过程中利用椭圆的参数来准确估计传感器的位置。除了人工地标以外,一些自然地标也可以用于定位系统中。

除此之外,将视觉信息与惯性测量单元(Inertial measurement unit,IMU)的测量信息结合进行定位,也是近年来提高定位准确性的常用方法。将IMU融入定位系统,可以有效地解决纯视觉定位系统中的尺度漂移问题[14]。视觉融合IMU问题可以分成基于滤波和基于优化两大类。 同时按照是否把图像特征信息加入状态向量来进行分类,可以分为松耦合和紧耦合两大类。松耦合将视觉传感器和 IMU 作为两个单独的模块,两个模块均可以计算得到位姿信息,然后进行融合。最常用的融合方法是扩展卡尔曼滤波融合[15]。紧耦合则是指将视觉和IMU得到的中间数据通过一个优化滤波器进行处理,紧耦合需要把图像特征加入到特征向量中,最终得到位姿信息的过程。由于这个原因,系统状态向量最终的维度也会非常高,同时计算量也很大。

参考文献:

  1. He M, Zhu C, Huang Q, et al. A review of monocular visual odometry[J]. Visual Computer, 2019:1-13.
  2. Mur-Artal R, Tardos J D. ORB-SLAM2: An Open-Source SLAM System for Monocular, Stereo, and RGB-D Cameras[J]. IEEE Transactions on Robotics, 2017:1-8.
  3. Engel J, Koltun V, Cremers D. Direct Sparse Odometry[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017:1-1.
  4. C. Forster, M. Pizzoli and D. Scaramuzza. SVO: Fast semi-direct monocular visual odometry[C]. 2014 IEEE International Conference on Robotics and Automation, 2014:15-22.
  5. Wu Y, Tang F, Li H. Image-based camera localization: an overview[J]. Visual Computing for Industry, Biomedicine, and Art, 2018, 1(1).
  6. T. Sattler, B. Leibe and L. Kobbelt. Fast image-based localization using direct 2D-to-3D matching[C]. 2011 IEEE International Conference on Computer Vision, Barcelona, 2011:667-674.
  7. Li Y, Snavely N, Huttenlocher D P. Location Recognition using Prioritized Feature Matching[C]. Computer Vision – ECCV 2010. Springer Berlin Heidelberg, 2010:791-804.
  8. Angga Rusdinar, Sungshin Kim. Vision-Based Indoor Localization Using Artificial Landmarks and Natural Features on the Ceiling with Optical Flow and a Kalman Filter[J]. International Journal of Fuzzy Logic and Intelligent Systems, 2013, 13(2): 133-139.
  9. Panzier, S., Pascucci, F., Setola, R., Ulivi, G. A low cost vision based localization system for mobile robots[J]. Target, 2001:4-5.
  10. Wu C J, Tsai W H. Location estimation for indoor autonomous vehicle navigation by omni-directional vision using circular landmarks on ceilings[J]. Robotics and Autonomous Systems, 2009, 57(5):546-555.
  11. Zhao Jun, Liu Guo-ping. A novel localization method for indoor mobile robot based on odometry and ceiling visual features[C]. Proceedings of the 34th Chinese Control Conference, 2015:5941-5947.
  12. Hang Zhou, Haiyan Fan, Keju Peng, Weihong Fan, et al. Monocular Visual Odometry Initialization With Points and Line Segments [J]. IEEE Access, 2019: 1-1.
  13. Yijia He, Ji Zhao, Yue Guo, Wenhao H, Kui Yuan. PL-VIO Tightly-Coupled Monocular Visual–Inertial Odometry Using Point and Line Features[J]. Sensors, 2018:1159-1159.
  14. 路丹晖, 周文晖, 龚小谨, et al. 视觉和IMU融合的移动机器人运动解耦估计[J]. 浙江大学学报(工学版), 2012(6).
  15. 陈丁, 马跃龙, 曹雪峰, et al. 融合IMU与单目视觉的无人机自主定位方法[J]. 系统仿真学报, 2017, v.29(S1):13-18.

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。