机器人视觉跟踪与控制研究(一)

研究背景:

机器人视觉,通过图像获得外界信息,用于机器人对环境的感知。

提高机器人智能性、环境适应性、自主行为的重要途径。

近年来机器人领域的研究热点之一。

研究内容:

视觉系统标定

目标分割与图像处理

视觉测量与视觉控制

视觉系统标定

1基于环境信息的自标定

?利用环境中的正交平行线获得消失点,标定摄像机的内参数

?利用环境中的正交平行线确定摄像机的姿态

?提出了利用正交平行线可靠标定摄像机内参数的必要条件

2基于相对运动的自标定

利用机器人末端的至少两次平移运动,标定出立体视觉系统的参数

3无标定主动立体视觉

建立了一种主动视觉测量模型,利用摄像机的偏转角,计算出目标的三维坐标,  不需要摄像机的内外参数

后面会继续讲解目标分割与图像处理和视觉测量与视觉控制部分,谢谢

时间: 2024-08-09 06:22:10

机器人视觉跟踪与控制研究(一)的相关文章

机器人视觉测量与控制

机器人视觉的基本概念 1.摄像机标定(Camera Calibration):对摄像机的内部参数.外部参数进行求取的过程. 2.视觉系统标定(Vision System Calibration):对摄像机和机器人之间关系的确定. 3.手眼系统(Hand-Eye System):又摄像机和机械手构成的机器人视觉系统. 4.Eye-in-Hand:摄像机安装在机械手末端并随机械手一起运动的视觉系统. 5.Eye-to-Hand:摄像机不安装在机械手末端,不随机械手运动的视觉系统. 6.视觉测量(Vi

移动机器人视觉定位方法的研究

本文针对移动机器人的局部视觉定位问题进行了研究.首先通过移动机器人视觉定位与目标跟踪系统求出目标质心特征点的位置时间序列, 然后在分析二次成像法获取目标深度信息的缺陷的基础上, 提出了一种获取目标的空间位置和运动信息的方法.该方法利用序列图像和推广卡尔曼滤波, 目标获取采用了H IS 模型.在移动机器人满足一定机动的条件下, 较精确地得到了目标的空间位置和运动信息.仿真结果验证了该方法的有效性和可行性. 运动视觉研究的是如何从变化场景的一系列不同时刻的图像中提取出有关场景中的目标的形状.位置和运

机器人学 —— 机器人视觉(基础)

机器人视觉是一种处理问题的研究手段.经过长时间的发展,机器人视觉在定位,识别,检测等多个方面发展出来各种方法.其以常见的相机作为工具,以图像作为处理媒介,获取环境信息. 1.相机模型 相机是机器人视觉的主要武器,也是机器人视觉和环境进行通信的媒介.相机的数学模型为小孔模型,其核心在于相似三角形的求解.其中有三个值得关注的地方: 1.1 1/f = 1/a + 1/b 焦距等于物距加上像距.此为成像定理,满足此条件时才能成清晰的像. 1.2 X  = x * f/Z 如果连续改变焦距f ,并同时移

机器人学 —— 机器人视觉(特征)

上回说到机器人视觉的核心任务是estimation,理论框架是射影几何理论.在之前的作业中展现了单应变换的巨大威力.然而,整个estimation 的首要条件是已知像素点坐标,尤其是多幅图中对应点的像素坐标. 单幅图像的处理方法都是大路货了,不赘述.这篇博客想讲讲不变点检测与不变特征.由于机器人在不断运动,所以可能从不同方向对同一物体进行拍摄.而拍摄的距离有远近,角度有titled. 由于射影变换本身的性质,无法保证两幅图中的物体看上去一样.所以我们需要一种特征提取方法(特征点检测),能够保证检

DIY一个基于树莓派和Python的无人机视觉跟踪系统

DIY一个基于树莓派和Python的无人机视觉跟踪系统 无人机通过图传将航拍到的图像存储并实时传送回地面站几乎已经是标配.如果想来点高级的--在无人机上直接处理拍摄的图像并实现自动控制要怎么实现呢?其实视觉跟踪已经在一些高端的消费级无人机上有了应用,不过玩现成的永远没有自己动手来劲;).前段时间DIY了一个无人机三轴云台的视觉跟踪系统,除去云台花了¥370,本文将设计思路与实验效果分享出来. 一.基本配置 1.1 硬件 计算平台:树莓派3 (¥219.00) 摄像头:USB网络摄像头(¥108.

TLD视觉跟踪算法

TLD算法好牛逼一个,这里有个视频,是作者展示算法的效果,http://www.56.com/u83/v_NTk3Mzc1NTI.html.下面这个csdn博客里有人做的相关总结,感觉挺好的,收藏了!下面有个Compressive Tracking的网址,提供的代码很少,但实时性很好,matlab代码下下来就能用. 以下博文转自:http://blog.csdn.net/windtalkersm/article/details/8018980 TLD是一种算法的简称,原作者把它叫做Trackin

TLD视觉跟踪算法(转)

源:TLD视觉跟踪算法 TLD算法好牛逼一个,这里有个视频,是作者展示算法的效果,http://www.56.com/u83/v_NTk3Mzc1NTI.html.下面这个csdn博客里有人做的相关总结,感觉挺好的,收藏了!下面有个Compressive Tracking的网址,提供的代码很少,但实时性很好,matlab代码下下来就能用. 以下博文转自:http://blog.csdn.net/windtalkersm/article/details/8018980 TLD是一种算法的简称,原作

机器人视觉系统笔记

机器人视觉系统研究 杭电图书馆 科学出版社 总页数:202 唯一QQ:1825587919 唯一WX:ly1825587919 PS:由于阅读效率原因,仅记录关键点 第一章  绪论 第二章 全向视觉系统 1.多摄像机拼接全向视觉系统 ringcam系统   五个摄像头2.鱼眼镜头全向视觉系统 短焦距,超广角镜头3.折反射式全向视觉系统 锥形,椭圆形,双曲线形,抛物线形 水平等比镜面,水平距离成像一样 垂直等比镜面,垂直距离成像一样 角度等比镜面 改进 由内到外 双曲,水平等比,垂直等比 标定方法

机器人学 —— 机器人视觉(估计)

之前说到,机器人视觉的核心是Estimation.求取特征并配准,也是为了Estimation做准备.一旦配准完成,我们就可以从图像中估计机器人的位置,姿态.有了位置,姿态,我们可以把三维重建的东西进行拼接.从视觉信息估计机器人位姿的问题可以分为三个大类:1.场景点在同一平面上.2.场景点在三维空间中.3.两幅点云的配准. 所有问题有一个大前提就是知道相机内部矩阵K. 1.由单应矩阵进行位姿估计 单应矩阵原指从 R2--R2 的映射关系.但在估计问题中,如果我们能获得这种映射关系,就可以恢复从世