Emgu-WPF 激光雷达研究-移动物体跟踪2

原文:Emgu-WPF 激光雷达研究-移动物体跟踪2

初步实现了去燥跟踪,并用圆点标注障碍物

https://blog.csdn.net/u013224722/article/details/80780205

测试过程中发现,当存在两个障碍物相对于雷达扫描射线重叠时,距离教远的障碍物信息会丢失。即获取不到数据,不重叠时,重新检测到数据。但由于数据帧丢失,被算法判断为移除一个、 添加一个新的,造成跟踪失败或较大误差。如下图:

当障碍物重叠时,被遮挡的信息丢失,造成误处理(障碍物标记颜色改变--- 失去跟踪目标,移除并新建了新的障碍物),针对该问题,基于前面的算法,优化出了可以规避该问题的算法,简述为障碍物生存指数判别法。

算法验证效果

自主设计算法及验证,坑较多,脑洞很大,自我勉励。

技术延展设想:在我的场景中,我的激光雷达位置是固定的,障碍物在移动。假设激光雷达也在缓慢移动。则新采集的帧数据检测出来的障碍物位置信息基于激光雷达的位移数据进行变换,即将激光雷达的位移数据通过算法转嫁至新数据帧上检测到的障碍物上。也能构建成激光雷达没有移动的伪模型,然后根据构建的伪模型系列数据进行障碍物的跟踪检测。

如下图:激光雷达原位置O,障碍物原位置A。 下一帧数据检测到O移动到了Ot, A移动到了At; 途中的夹角α是我的追踪算法中算量之一。明显变化太大,约从60度扩大到了120度,且还有其他算量的误差,在算法中应该会造成跟踪失败。中间示意图左:将O的位移转嫁到At上,形成新的障碍物位置Av,这就构建出了简易的伪模型(中间排右、最后排示意图),也就相当于转换成了O不动,A移动到了Av。 这正好可以采用我事先的跟踪算法去跟踪。

该设想有待我去进一步验证。

Slam 2D技术目前仍然更多的处于研究中,商业落地也在探究中,动态的信息采集设备追踪动态的物体这方面的资料貌似也并不是很多,有待探究。

原文地址:https://www.cnblogs.com/lonelyxmas/p/9472587.html

时间: 2024-11-04 12:12:31

Emgu-WPF 激光雷达研究-移动物体跟踪2的相关文章

Emgu-WPF 激光雷达研究-绘制雷达图

原文:Emgu-WPF 激光雷达研究-绘制雷达图 硬件:Hokuyo URG04LX 环境:VS2017- win10- 64??Emgu_3.2.0.2682 语言:C#? WPF?? 数据解析参考: https://sourceforge.net/p/urgnetwork/wiki/Home/ https://github.com/bqhdev/urg04lx_data_decoder http://sourceforge.net/projects/urgnetwork/files/urg_

OpenCv_背景差分结合LK金字塔进行运动物体跟踪

前面我们看到通过光流法进行运动物体跟踪的实际例子,其实现的基本原理就是: 一.获取前一帧,然后转换为灰度图,利用cvGoodFeaturesToTrack 函数寻找这一帧视频流的强角点 二.获取当前帧,然后转换为灰度图,利用LK金字塔算法 cvCalcOpticalFlowPyrLK 函数结合第一帧寻找到的角点A,寻找当前帧的角点B 三.画出角点和运动轨迹 背景差分法进行运动物体检测的基本原理就是: 一.取前一帧的视频流作为运动背景 二.将当前帧的视频流中的每个像素与前一帧的每个像素做差,得出每

使用流光法实现物体跟踪

简介 本篇讲解使用opencv提供的流光法算法接口,实现物体跟踪.范例代码为参考修改tvl1_optical_flow.cpp实现. 具体实现 实现代码 #include <iostream> #include <fstream>   #include "opencv2/video/tracking.hpp" #include "opencv2/highgui/highgui.hpp"   using namespace cv; using

Emgu-WPF 激光雷达研究-定位实现

原文:Emgu-WPF 激光雷达研究-定位实现 特定位置或障碍物位置定位实现. 读取激光雷达数据并存储于本地作为测试数据.每一帧数据对同一障碍物的定位信息均存在偏差.所以先对需要定位的点进行数据取样.取样过程中,遇到数据丢失,或检测到多个障碍物(不满足障碍物生存指数的障碍物未在UI界面绘制)则丢弃已经采样到的数据,重新开始采样,样本数足够后,执行均值点计算. 执行均值计算后,将计算的点位信息保存至配置文件并在UI界面绘制出来,重新加载测试数据.定位较准,算法去除定位噪点数据也较成功. 定位数据绘

OpenCV粒子滤波器用于物体跟踪

1.引言 这个项目是由俄亥俄州立大学(OSU)一位博士生所写,http://web.engr.oregonstate.edu/~hess/,这位博士在其个人主页上对该项目进行了如下描述: Object tracking is a tricky problem. A general, all-purpose object tracking algorithm must deal with difficulties like camera motion, erratic object motion,

基于粒子滤波的物体跟踪

先上图: Rob Hess(http://web.engr.oregonstate.edu/~hess/)实现的这个粒子滤波. 从代码入手,一下子就明白了粒子滤波的原理. 根据维基百科上对粒子滤波的介绍(http://en.wikipedia.org/wiki/Particle_filter),粒子滤波其实有很多变种,Rob Hess实现的这种应该是最基本的一种,Sampling Importance Resampling (SIR),根据重要性重采样. 算法原理的粗浅理解: 1)初始化阶段-提

(转) 深度学习在目标跟踪中的应用

深度学习在目标跟踪中的应用 原创 2016-09-05 徐霞清 深度学习大讲堂 点击上方“深度学习大讲堂”可订阅哦!深度学习大讲堂是高质量原创内容的平台,邀请学术界.工业界一线专家撰稿,致力于推送人工智能与深度学习最新技术.产品和活动信息! 开始本文之前,我们首先看上方给出的3张图片,它们分别是同一个视频的第1,40,80帧.在第1帧给出一个跑步者的边框(bounding-box)之后,后续的第40帧,80帧,bounding-box依然准确圈出了同一个跑步者.以上展示的其实就是目标跟踪(vis

有关meanshift跟踪的理解(在opencv中实现)(转载)

meanshift算法思想其实很简单:利用概率密度的梯度爬升来寻找局部最优.它要做的就是输入一个在图像的范围,然后一直迭代(朝着重心迭代)直到满足你的要求为止.但是他是怎么用于做图像跟踪的呢?这是我自从学习meanshift以来,一直的困惑.而且网上也没有合理的解释.经过这几天的思考,和对反向投影的理解使得我对它的原理有了大致的认识. 在opencv中,进行meanshift其实很简单,输入一张图像(imgProb),再输入一个开始迭代的方框(windowIn)和一个迭代条件(criteria)

【转帖】MIT人工智能实验室:如何做研究?

来自MIT人工智能实验室:如何做研究? 作者:人工智能实验室全体研究生 编辑:David Chapman 版本:1.3 时间:1988年9月 译者:柳泉波 北京师范大学信息学院2000级博士生 Copyright 1987, 1988 作者版权所有 摘要 本文的主旨是解释如何做研究.我们提供的这些建议,对做研究本身(阅读.写作和程序设计),理解研究过程以及开始热爱研究(方法论.选题.选导师和情感因素),都是极具价值的. 备注:人工智能实验室的Working Papers用于内部交流,包含的信息由