SLAM概念学习之特征图Feature Maps

  特征图(或者叫地标图,landmark maps)利用参数化特征(如点和线)的全局位置来表示环境。如图1所示,机器人的外部环境被一些列参数化的特征,即二维坐标点表示。这些静态的地标点被观测器(装有传感器的机器人)利用多目标跟踪的方法跟踪,从而估计机器人的运动。

  

Fig.1 Feature maps.

  机器人的定位是通过建立传感器观测特征和图map中特征之间的关系来确定的。预测特征的位置和量测特征位置之间的差别被用来计算机器人的位姿。这种方式,类似于多目标跟踪问题,但是不想传统的多目标跟踪问题,这里的目标群是静止的,但是观测的机器人是运动的。

  先验特征图里面的地标位置被假设已知的,因此每个特征都很容易被一个参数集表示。假设机器人的量测,即从环境中提取的特征被正确地关联到图中的已有特征,我们就可以利用标准的估计技术如EKF来跟踪机器人的位姿。因此,数据关联(data association)是基于特征图的定位实现的主要弱点。

  

Fig.2 SLAM中不确定性的相关性分析

  基于特征图的SLAM包含两个主要任务,首先需要将机器人上传感器新观测到的特征添加到Map中,新特征的添加是基于此时机器人位姿作为参考的;另一个任务是利用Map中现有的特征来估计机器人的位姿。传感器测量的不确定性将会导致机器人位姿和观测特征定位的确定,这些不确定性是相互依赖或者说相互关联的。如图2所示,在(a)中,机器人观测到f1,并初始化f1,因此该特征的定位便依赖于此时机器人的位姿。在下一个时刻(b),机器人再次观测到f1,并初始化新特征f2。因此,新特征f2的初始化便依赖于该时刻机器人的位姿估计,在初始化新特征的同时,机器人位姿的估计将反过来依赖于已观测特征f1。

  下一节,我们将介绍基于Feature maps的随机SLAM算法。

时间: 2024-11-05 02:33:43

SLAM概念学习之特征图Feature Maps的相关文章

SLAM概念学习之随机SLAM算法

这一节,在熟悉了Featue maps相关概念之后,我们将开始学习基于EKF的特征图SLAM算法. 1. 机器人,图和增强的状态向量 随机SLAM算法一般存储机器人位姿和图中的地标在单个状态向量中,然后通过一个递归预测和量测过程来估计状态参数.其中,预测阶段通过增量航迹估计来处理机器人的运动,并增加了机器人位姿不确定性的估计.当再次观测到Map中存储的特征后,量测阶段,或者叫更新阶段开始执行,这个过程可以改善整个的状态估计.当机器人在运动过程中观测到新特征时,便通过一个状态增强的过程将新观测的特

AI学习---特征工程(Feature Engineering)

为什么需要特征工程(Feature Engineering) 数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已 什么是特征工程 帮助我们使得算法性能更好发挥性能而已 sklearn主要用于特征工程pandas主要用于数据清洗.数据处理 特征工程包含如下3个内容: 1.特征抽取/特征提取 |__>字典特征抽取 |__>文本特征抽取 |__>图像特征抽取(深度学习) 2.特征预处理 3.特征降维 特征抽取/特征提取 我们常说的机器学习算法实际上就是我们统计学上的统计方法也就是

卷积核输出特征图大小的计算

先讲一下是怎么卷积的.一般输入的是RGB颜色空间的图片,即有三个通道.可以理解为这三个通道的每个对应的数值组合在一起表示了这一张图片. 卷积操作过程:(通道数变化的原理) 先从一张示意图说起,卷积基础概念和操作步骤就不啰嗦了,只讲这张图,大意就是,有in-channel,有out-channel,你需要把in-channel都做卷积操作,然后产出out-channel,所以这个w是要层层拆解,w分拆成w0和w1,以对应2个out-channel.w0分拆成3个矩阵w0[:,:,0].w0[:,:

特征工程(Feature Enginnering)学习记要

最近学习特征工程(Feature Enginnering)的相关技术,主要包含两块:特征选取(Feature Selection)和特征抓取(Feature Extraction).这里记录一些要点,作为备忘. 特征选取 R中的FSelector包实现了一些特征选取的算法,主要分两大类: Algorithms for filtering attributes: cfs, chi.squared, information.gain, gain.ratio, symmetrical.uncertai

机器学习-特征工程-Feature generation 和 Feature selection

概述:上节咱们说了特征工程是机器学习的一个核心内容.然后咱们已经学习了特征工程中的基础内容,分别是missing value handling和categorical data encoding的一些方法技巧.但是光会前面的一些内容,还不足以应付实际的工作中的很多情况,例如如果咱们的原始数据的features太多,咱们应该选择那些features作为咱们训练的features?或者咱们的features太少了,咱们能不能利用现有的features再创造出一些新的与咱们的target有更加紧密联系

拉普拉斯特征图降维及其python实现

这种方法假设样本点在光滑的流形上,这一方法的计算数据的低维表达,局部近邻信息被最优的保存.以这种方式,可以得到一个能反映流形的几何结构的解. 步骤一:构建一个图G=(V,E),其中V={vi,i=1,2,3-n}是顶点的集合,E={eij}是连接顶点的vi和vj边,图的每一个节点vi与样本集X中的一个点xi相关.如果xi,xj相距较近,我们就连接vi,vj.也就是说在各自节点插入一个边eij,如果Xj在xi的k领域中,k是定义参数. 步骤二:每个边都与一个权值Wij相对应,没有连接点之间的权值为

卷积层处理后的特征图尺寸计算

卷积处理后输出的图片尺寸是多大是根据几个参数计算来的.参数如下: 输入图片的大小: (n,n) 卷积核的大小:(f,f) 步长:s (卷积核计算一个区域后,挪动几个像素再进行计算) padding值:p  (即在图像边缘填充几层0) 计算公式如下(长.宽的计算方法都一样): $n' = \frac{n+2*p-f}{s}+1$ 形象地解释: 卷积输出的图像大小是多少,就看卷积核在横向一行走了多少次,纵向一列走了多少次. 图像会先根据padding值在四周填充0,然后卷积核在左上方对齐填充后的图片

Hulu机器学习问题与解答系列 | 二十三:神经网络训练中的批量归一化

来看看批量归一化的有关问题吧!记得进入公号菜单"机器学习",复习之前的系列文章噢. 今天的内容是 [神经网络训练中的批量归一化] 场景描述 深度神经网络的训练中涉及诸多手调参数,如学习率,权重衰减系数,Dropout比例等,这些参数的选择会显著影响模型最终的训练效果.批量归一化(Batch Normalization, BN)方法从数据分布入手,有效减弱了这些复杂参数对网络训练产生的影响,在加速训练收敛的同时也提升了网络的泛化能力. 问题描述 BN基本动机与原理是什么? BN的具体实现

CNN卷积神经网络

CNN是一种多层神经网络,基于人工神经网络,在人工神经网络前,用滤波器进行特征抽取,使用卷积核作为特征抽取器,自动训练特征抽取器,就是说卷积核以及阈值参数这些都需要由网络去学习. 图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程. 一般卷积神经网络的结构: 前面feature extraction部分体现了CNN的特点,feature extraction部分最后的输出可以作为分类器的输入.这个分类器你可以用softmax或RBF等等. 局部感受野与权值共享 局部感受