视觉slam领域经典综述和具体应用场景

一、经典综述文章

1.  Durrant-Whyte H, Bailey T. Simultaneous localization and mapping: part I[J]. IEEE robotics & automation magazine, 2006, 13(2): 99-110.
2. T. Bailey and H. F. Durrant-Whyte. Simultaneous Localisation and Mapping (SLAM): Part II. Robotics and Autonomous Systems (RAS), 13(3):108–117, 2006
3. Cadena C, Carlone L, Carrillo H, et al. Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age[J]. IEEE Transactions on Robotics, 2016, 32(6):1309-1332.
4. 刘浩敏, 章国锋, 鲍虎军. 基于单目视觉的同时定位与地图构建方法综述[J]. 计算机辅助设计与图形学学报, 2016, 28(6):855-868.

二、视觉slam应用场景

机器人自主导航

SLAM是智能机器人的核心技术之一,应用例如危险场景下、GPS失效的室内、太空中、水下等进行探测、定位和建图

辅助驾驶

基于GPS定位精度较差(10m左右),无法准确定位具体车道线,而vSLAM定位精度可达厘米级。此外,在GPS无法工作的特殊场景(隧道,山洞等)下SLAM可以接管定位工作。

增强现实

SLAM可以在未知环境中定位自身方位并同时构建环境三维地图, 从而保证叠加的虚拟与现实场景在几何上的一致性(也就是让虚拟物体看起来像是被“固定”住了一样)。

三维重建

利用摄像机(单面、双目、RGB-D等)扫描物体(小尺度)、场景(大尺度),获得扫描物体或者场景的三维模型。可以用于3D虚拟漫游,3D物体打印,历史遗迹电子化保存等方面。

原文地址:https://www.cnblogs.com/ilym/p/9622321.html

时间: 2024-10-10 14:09:29

视觉slam领域经典综述和具体应用场景的相关文章

视觉SLAM算法框架解析(1) PTAM

版权声明:本文为博主原创文章,未经博主允许不得转载. 本系列文章旨在总结主流视觉SLAM算法的框架,对比各个算法在子模块的差异,最终提炼出融合各个算法优点的架构. PTAM[1]是视觉SLAM领域里程碑式的项目.在此之前,MonoSLAM[2]为代表的基于卡尔曼滤波的算法架构是主流,它用单个线程逐帧更新相机位置姿态和地图.地图更新的计算复杂度很高,为了做到实时处理(30Hz),MonoSLAM每帧图片只能用滤波的方法处理约10~12个最稳定的特征点.PTAM最大的贡献是提出了tracking.m

经典视觉SLAM框架

引言:通过前面的推送我们已经对SLAM有了个大体的认识.(初识视觉SLAM)下面来看经典的视觉SLAM框架,了解一下视觉SLAM究竟由哪几个模块组成.本文选自<视觉SLAM十四讲:从理论到实践>. 整体视觉SLAM流程图. 整个视觉SLAM流程包括以下步骤. 传感器信息读取.在视觉SLAM中主要为相机图像信息的读取和预处理.如果是在机器人中,还可能有码盘.惯性传感器等信息的读取和同步. 视觉里程计(Visual Odometry,VO).视觉里程计的任务是估算相邻图像间相机的运动,以及局部地图

视觉SLAM中的数学基础 第三篇 李群与李代数

视觉SLAM中的数学基础 第三篇 李群与李代数 前言 在SLAM中,除了表达3D旋转与位移之外,我们还要对它们进行估计,因为SLAM整个过程就是在不断地估计机器人的位姿与地图.为了做这件事,需要对变换矩阵进行插值.求导.迭代等操作.例如,在经典ICP问题中,给定了两组3D点,我们要计算它们之间的变换矩阵.假设第一组的3D点为$\mathbf{P}=\{ \mathbf{p}_i | i = [1,2, \ldots, N] \}$,第二组3D点为$\mathbf{Q}=\{ \mathbf{q}

[转载]图像视觉各个领域文献目录

转载自:http://www.cvrobot.net/annotated-computer-vision-bibliography-table-of-contents/ 当前图像视觉各个领域文献资料的索引,包含计算机视觉.图像处理.文本(图像)分析.视频分析.模式识别等主题.如果对哪个方向比较感兴趣,可以查看这个 方向的比较重要的Paper,每一个大的目录后面都对应一些更细的研究方向,选择某个研究方向就能获得该领域从经典到最新的文献资料索引. 1:帮助和FAQ 版权声明,怎样找到文章.介绍等.

图像视觉各个领域文献目录

图像视觉各个领域文献目录 当前图像视觉各个领域文献资料的索引,包含计算机视觉.图像处理.文本(图像)分析.视频分析.模式识别等主题.如果对哪个方向比较感兴趣,可以查看这个方向的比较重要的Paper,每一个大的目录后面都对应一些更细的研究方向,选择某个研究方向就能获得该领域从经典到最新的文献资料索引. 1:帮助和FAQ 版权声明,怎样找到文章.介绍等. 2:期刊会议组织 期刊列表,会议名称列表,研究组织 3:综合信息         书籍,合集,回顾,综述,概述 4:理念.基础.传感 计算机视觉,

视觉SLAM实战(一):RGB-D SLAM V2

写在前面 首先打个广告.SLAM研究者交流QQ群:254787961.欢迎各路大神和小白前来交流. 看了前面三篇博文之后,是不是有同学要问:博主你扯了那么多有用没用的东西,能不能再给力一点,拿出一个我们能实际上手玩玩的东西啊?没错,接下来我们就带着大家,实际地跑一下视觉SLAM里的那些经典程序,给大家一个直观的印象——因此博文就叫"视觉SLAM实战"啦.这些程序包括: RGBD SLAM V2 SVO KinectFusion Orb-SLAM 如果你有什么建议,可以发我的邮件或来群里

视觉SLAM漫淡(二):图优化理论与g2o的使用

视觉SLAM漫谈(二):图优化理论与g2o的使用 1    前言以及回顾 各位朋友,自从上一篇<视觉SLAM漫谈>写成以来已经有一段时间了.我收到几位热心读者的邮件.有的希望我介绍一下当前视觉SLAM程序的实用程度,更多的人希望了解一下前文提到的g2o优化库.因此我另写一篇小文章来专门介绍这个新玩意. 在开始本篇文章正文以前,我们先来回顾一下图优化SLAM问题的提法.至于SLAM更基础的内容,例如SLAM是什么东西等等,请参见上一篇文章.我们直接进入较深层次的讨论.首先,关于我们要做的事情,你

视觉SLAM之词袋(bag of words) 模型与K-means聚类算法浅析(1)

在目前实际的视觉SLAM中,闭环检测多采用DBOW2模型https://github.com/dorian3d/DBoW2,而bag of words 又运用了数据挖掘的K-means聚类算法,笔者只通过bag of words 模型用在图像处理中进行形象讲解,并没有涉及太多对SLAM的闭环检测的应用. 1.Bag-of-words模型简介 Bag-of-words模型是信息检索领域常用的文档表示方法.在信息检索中,BOW模型假定对于一个文档,忽略它的单词顺序和语法.句法等要素,将其仅仅看作是若

RGB-D视觉SLAM(1)之修改

虽然我已经做了两次关于SLAM的周报了,但是平时和实验室的师兄师姐交流的时候,他们好像还是不了解我要做啥.我觉得可能是前两次周报的时候,我对这个SLAM领域也是一知半解,所以才说的不够清楚.因此这次我想先把我要做的事情形象化地说明白,然后再汇报我这两周的工作. 为了说明我们要研究的东西,先提出两个问题:1.当你突然被扔到一个陌生的城市,你是怎么探索这个城市的呢? 2.假设你是一个来东华大学松江校区参观的游客,你是打算如何游览东华的呢?(是不是感觉一份地图至关重要) 那么假设来了,假设目前没有特别