机器人学 —— 机器人视觉(基础)

  机器人视觉是一种处理问题的研究手段。经过长时间的发展,机器人视觉在定位,识别,检测等多个方面发展出来各种方法。其以常见的相机作为工具,以图像作为处理媒介,获取环境信息。

1、相机模型

  相机是机器人视觉的主要武器,也是机器人视觉和环境进行通信的媒介。相机的数学模型为小孔模型,其核心在于相似三角形的求解。其中有三个值得关注的地方:

1.1  1/f = 1/a + 1/b

  焦距等于物距加上像距。此为成像定理,满足此条件时才能成清晰的像。

1.2  X  = x * f/Z

  如果连续改变焦距f ,并同时移动相机改变Z,则可以使得物体x在图像上所占像素数目不变(X)。此为DollyZoom原理。如果某个物体在该物体后方(更大的Z),可利用此原理任意调整两个物体在相片上的比例。

1.3    焦距越长,则视场越小,可以将远处的物体拍清晰。同时相片会有更大的景深。

2、消失点

  消失点是相片中特有的。此点在相片中不直接存在,在现实中直接不存在。由于射影变换,相片中原本平行的线会有相交的趋势。如果求的平行直线在图像中的交点,则该点对应现实中无穷远出的一点。该点的图像坐标为[X1 X1 1]。 此点成为消失点。相机光心与消失点的连线指向消失点在摄像机坐标系中的方向。

   此外,同一平面上各个方向的消失点,会在图像中组成一条直线,称为水平线。该原理可以用于测量站在地上的人的高度。值得注意的是只有相机水平时,horizen的高度才是camera Height.

2.1 位姿估计

  如果我们能获得一幅图中的2个消失点。且这2个消失点所对应的方向是相互垂直的(网格),那么我们就可以估计出相机相对于此图像的姿态(靶标位姿估计)。 在获得相机相对于靶标的旋转向量后,如果相机内部参数已知,且已知射影变换矩阵,则可计算相机相对于靶标的距离,那么可以估计机器人的位置。 H = K^-1*(H射影矩阵)

  

2.2 点线对偶

  p1×p2 = L12

  L12×L23 = p2

3、射影变换

  射影变化是空间中平面--->平面的一种变换。对齐次坐标,任意可逆矩阵H均表达了射影变换。简而言之,可以表达为A = HB ,其中AB是[X Y 1]形式的其次坐标。射影变换的一大作用就是将某一形状投射成其他形状。比如,制作相片中的广告牌,或者比赛转播中的广告牌,或者游泳比赛运动员到达后那个biu的一下出现的国旗。射影变换也是增强现实技术的基础。

  

  射影变换的核心在于H的求取。普通的求解方法见机器视觉教材。

  假设平面相片的四个点分别是A(0,0,1),B(0,1,1),C(1,1,1),D(1,0,1)。显然,这四个点需要投射到四个我们已知像素位坐标的图像区域中。此外,我们还可以依据像素位置计算两个有趣的点,V1(x1, y1, z1),V2(x2,y2,z2)。这两个点都是图像点。他们对应的实际坐标假设是(0,1,0),(1,0,0)。那么我们就有三个很有趣的实际点了。分别是(1,0,0),(0,1,0),(0,0,1).恰好是一个Identity Matrix。这三个实际坐标经过射影变换会得到像素坐标。像素坐标又是已知的。那么H的第一列就应该对应beta*V2,第二列应该对应alpha*V1。第三列应该对应gama*【A的像素坐标】。alpha beta gama是常数。【射影变化后的坐标应为常数乘以其次坐标】。

  如果能解得alpha beta gama,那么我们就获得了射影变换矩阵。显然把C点的像素坐标带入方程,我们则有3个方程,4个未知数(引入了一个lamda)。但是lamda并不影响,除过去后我们只要把alpha/lamda,beta/lamda,gama/lamda当作未知数即可解除射影矩阵。

  所以,射影变换矩阵的第一列代表消失点V1,第二列代表消失点V2,第一列与第二列的叉乘,代表水平线方程(点线对偶)。

时间: 2024-10-13 16:21:53

机器人学 —— 机器人视觉(基础)的相关文章

机器人学 —— 机器人视觉(特征)

上回说到机器人视觉的核心任务是estimation,理论框架是射影几何理论.在之前的作业中展现了单应变换的巨大威力.然而,整个estimation 的首要条件是已知像素点坐标,尤其是多幅图中对应点的像素坐标. 单幅图像的处理方法都是大路货了,不赘述.这篇博客想讲讲不变点检测与不变特征.由于机器人在不断运动,所以可能从不同方向对同一物体进行拍摄.而拍摄的距离有远近,角度有titled. 由于射影变换本身的性质,无法保证两幅图中的物体看上去一样.所以我们需要一种特征提取方法(特征点检测),能够保证检

机器人学 —— 机器人视觉(估计)

之前说到,机器人视觉的核心是Estimation.求取特征并配准,也是为了Estimation做准备.一旦配准完成,我们就可以从图像中估计机器人的位置,姿态.有了位置,姿态,我们可以把三维重建的东西进行拼接.从视觉信息估计机器人位姿的问题可以分为三个大类:1.场景点在同一平面上.2.场景点在三维空间中.3.两幅点云的配准. 所有问题有一个大前提就是知道相机内部矩阵K. 1.由单应矩阵进行位姿估计 单应矩阵原指从 R2--R2 的映射关系.但在估计问题中,如果我们能获得这种映射关系,就可以恢复从世

机器人学 —— 机器人视觉(Bundle Adjustment)

今天完成了机器人视觉的所有课程以及作业,确实是受益匪浅啊! 最后一个话题是Bundle Adjustment. 机器人视觉学中,最顶尖的方法. 1.基于非线性优化的相机位姿估计 之前已经在拟合一篇中,已经补完了非线性最小二乘拟合问题.Bundle Adjustment,中文是光束平差法,就是利用非线性最小二乘法来求取相机位姿,三维点坐标.在仅给定相机内部矩阵的条件下,对四周物体进行高精度重建.Bundle Adjustment的优化目标依旧是最小重复投影误差. 与利用non-linear mea

机器人学 —— 机器人感知(Gaussian Model)

机器人感知是UPNN机器人专项中的最后一门课程,其利用视觉方法来对环境进行感知.与之前提到的机器人视觉不同,机器人感知更侧重于对环境物体的识别与检测.与计算机视觉不同,机器人视觉所识别的物体往往不需要高精度测量,物体也有明显特征.机器人感知最为典型的应用是对环境的感知 —— SLAM,同步定位与地图构建.如果说机器人视觉解决了where am I的问题,那么Robotic Perception 面对的是Who is it. 1.1D Gaussian 感知要解决的是对环境识别的问题,沿着PGM的

机器人视觉测量与控制

机器人视觉的基本概念 1.摄像机标定(Camera Calibration):对摄像机的内部参数.外部参数进行求取的过程. 2.视觉系统标定(Vision System Calibration):对摄像机和机器人之间关系的确定. 3.手眼系统(Hand-Eye System):又摄像机和机械手构成的机器人视觉系统. 4.Eye-in-Hand:摄像机安装在机械手末端并随机械手一起运动的视觉系统. 5.Eye-to-Hand:摄像机不安装在机械手末端,不随机械手运动的视觉系统. 6.视觉测量(Vi

机器人视觉跟踪与控制研究(一)

研究背景: 机器人视觉,通过图像获得外界信息,用于机器人对环境的感知. 提高机器人智能性.环境适应性.自主行为的重要途径. 近年来机器人领域的研究热点之一. 研究内容: 视觉系统标定 目标分割与图像处理 视觉测量与视觉控制 视觉系统标定 1基于环境信息的自标定 ?利用环境中的正交平行线获得消失点,标定摄像机的内参数 ?利用环境中的正交平行线确定摄像机的姿态 ?提出了利用正交平行线可靠标定摄像机内参数的必要条件 2基于相对运动的自标定 利用机器人末端的至少两次平移运动,标定出立体视觉系统的参数 3

机器人视觉系统笔记

机器人视觉系统研究 杭电图书馆 科学出版社 总页数:202 唯一QQ:1825587919 唯一WX:ly1825587919 PS:由于阅读效率原因,仅记录关键点 第一章  绪论 第二章 全向视觉系统 1.多摄像机拼接全向视觉系统 ringcam系统   五个摄像头2.鱼眼镜头全向视觉系统 短焦距,超广角镜头3.折反射式全向视觉系统 锥形,椭圆形,双曲线形,抛物线形 水平等比镜面,水平距离成像一样 垂直等比镜面,垂直距离成像一样 角度等比镜面 改进 由内到外 双曲,水平等比,垂直等比 标定方法

机器人学 —— 机器人感知(Mapping)

对于移动机器人来说,最吸引人的莫过于SLAM,堪称Moving Robot 皇冠上的明珠.Perception 服务于 SLAM,Motion Plan基于SLAM.SLAM在移动机器人整个问题框架中,起着最为核心的作用.为了专注于Mapping,此章我们假设 Location 是已知的. 1.Metric Map 轨迹规划任务是再Metric Map的基础上完成的.当然,层次最高的是语意图,语意图是未来研究的热点方向.获取Metric Map 的难度最大之处在于:1.传感器噪声(May be

机器人视觉导航工作总结

1.SLAM技术 SLAM 全称 Simultaneous Localization and Mapping,中文名曰「同步定位与地图构建」,主要用于解决机器人在未知环境运动时的定位和地图构建问题.在SLAM理论中,第一个问题称为定位 (Localization),第二个称为建图 (Mapping),第三个则是随后的路径规划.SLAM的实现方式与难度和传感器密切相关.目前实现SLAM的传感器大体分为激光和视觉两大类.相比于图像,激光雷达可直接测量目标与传感器之间的相对位置,使得激光雷达SLAM技