视觉slam十四讲ch5 joinMap.cpp 代码注释(笔记版)

  1 #include <iostream>
  2 #include <fstream>
  3 using namespace std;
  4 #include <opencv2/core/core.hpp>
  5 #include <opencv2/highgui/highgui.hpp>
  6 #include <Eigen/Geometry>
  7 #include <boost/format.hpp>  // for formating strings
  8 #include <pcl/point_types.h>
  9 #include <pcl/io/pcd_io.h>
 10 #include <pcl/visualization/pcl_visualizer.h>
 11
 12 int main( int argc, char** argv )
 13 {
 14     /*彩色图和灰度图各5张,所以用容器来存储*/
 15     vector<cv::Mat> colorImgs, depthImgs;    // 彩色图和深度图
 16
 17     /*vector有两个参数,后面的参数一般是默认的,这里用适合Eigen库的对齐方式来初始化容器,总共有5张图片 所以对应着5个位姿矩阵*/
 18     vector<Eigen::Isometry3d,Eigen::aligned_allocator<Eigen::Isometry3d>> poses;   // 相机位姿
 19
 20     ifstream fin("./pose.txt");
 21     if (fin.bad())//如果没有打开 那么提示错误!
 22     {
 23         cerr<<"请在有pose.txt的目录下运行此程序"<<endl;
 24         return 1;
 25     }
 26
 27     /*循环读取图像*/
 28     for ( int i=0; i<5; i++ )
 29     {
 30         /*用boost中的format格式类,来循环读取图片,否则单张读取图片就会有问题
 31          * 当在命令行中执行的时候这里必须要为../  在当前ide中执行的时候要修改为./ */
 32         boost::format fmt( "./%s/%d.%s" ); //图像文件格式   "../%s/%d.%s"   ../ 表示可执行文件在build中,图像在上一个目录,所以用../
 33         /*这里的%对应./ color对应%s  下面的符号就是与上面一致对应的 */
 34         colorImgs.push_back( cv::imread( (fmt%"color"%(i+1)%"png").str() ));
 35         depthImgs.push_back( cv::imread( (fmt%"depth"%(i+1)%"pgm").str(), -1 )); // 使用-1读取原始图像
 36
 37         /*基于范围的for循环,表示从data数组的第一项开始 循环遍历  auto表示自动根据后面的元素 获得符合要求的类型*/
 38         double data[7] = {0};
 39         for ( auto& d:data )//auto自动类型转换
 40             fin>>d;//文件流类型的变量fin将pose.txt中的数据给了d数组
 41         Eigen::Quaterniond q( data[6], data[3], data[4], data[5] ); //四元数 data[6]是实数 但是coeffis输出的是先虚数后实数
 42         Eigen::Isometry3d T(q);                                     //变换矩阵初始化旋转部分,
 43         T.pretranslate( Eigen::Vector3d( data[0], data[1], data[2] ));//变换矩阵初始化平移向量部分
 44         poses.push_back( T );   //存储变换矩阵到位姿数组中
 45     }
 46
 47     // 计算点云并拼接
 48     // 相机内参
 49     double cx = 325.5;
 50     double cy = 253.5;
 51     double fx = 518.0;
 52     double fy = 519.0;
 53     double depthScale = 1000.0;//
 54
 55     cout<<"正在将图像转换为点云..."<<endl;
 56
 57     // 定义点云使用的格式:这里用的是XYZRGB
 58     typedef pcl::PointXYZRGB PointT;
 59     typedef pcl::PointCloud<PointT> PointCloud;
 60
 61     // 新建一个点云//PointCoud::Ptr是一个智能指针类 通过构造函数初始化指针指向的申请的空间
 62     /*Ptr是一个智能指针,返回一个PointCloud<PointT> 其中PointT是pcl::PointXYZRGB类型。它重载了->  返回了指向PointCloud<PointT>的指针
 63      *Ptr是下面类型 boost::shared_ptr<PointCloud<PointT> > */
 64     /*pointCloud 是一个智能指针类型的对象 具体可以参考http://blog.csdn.net/worldwindjp/article/details/18843087*/
 65     PointCloud::Ptr pointCloud( new PointCloud );
 66 //    pcl::PointCloud<pcl::PointXYZRGB>::Ptr pointCloud( new pcl::PointCloud<pcl::PointXYZRGB> );
 67
 68     /*将5张图片 像素坐标转换到相机坐标 之后转换到世界坐标存储到点云格式的变量中 for循环之后用pcl的相关函数将点云转换到pcl能够显示的格式*/
 69     for ( int i=0; i<5; i++ )//转换5张图像
 70     {
 71         cout<<"转换图像中: "<<i+1<<endl;
 72         cv::Mat color = colorImgs[i];
 73         cv::Mat depth = depthImgs[i];
 74         Eigen::Isometry3d T = poses[i];
 75
 76         /*           插入部分
 77          * //color.at<cv::Vec3b>(471,537)[0] = 12;//修改图像上的对应像素位置的值
 78         //color.ptr<cv::Vec3b>(471)[537][0] = 12;//与上面的效果一样
 79
 80         //测试像素的输出效果,这里无法通过cout<<color.at<cv::Vec3b>(471,537)[0] 这种方式来输出第一个通道的值,因为每个通道的像素占了8位而unsigned char
 81         // 表示ascii码 所以输出的时候不是正确的数字,可以通过下面的方式强制转化为int类型(或者用自带的类型转换方式进行显示转换),就可以看到内部的值了
 82         //需要注意的一点是 cout页无法输出char类型的变量的地址,也是需要强制转换成void *类型的指针才能正常输出char类型变量的地址信息。
 83         if(colorImgs[i].channels() == 3) {
 84              std::cout << "测试1结果 " << color.ptr<cv::Vec3b>(471)[537] << "正确的结果:  "
 85                        << (char) color.at<cv::Vec3b>(471, 537)[0] << std::endl;
 86              std::cout << depth.ptr<unsigned short>(471)[537] << std::endl;
 87              std::cout << colorImgs[i].at<cv::Vec3b>(471, 537) << std::endl;
 88         }
 89                      插入部分结束
 90          */
 91
 92         /*对图像像素进行坐标转换,将图像的坐标通过内参矩阵K转换为相机坐标系下的坐标,之后通过外参矩阵T 转化为世界坐标系下的坐标*/
 93         for ( int v=0; v<color.rows; v++ )
 94             for ( int u=0; u<color.cols; u++ )
 95             {
 96                 /*通过用Mat中的ptr模板函数 返回一个unsigned short类型的指针。v表示行 根据内部计算返回data头指针 + 偏移量来计算v行的头指针
 97                  * 图像为单通道的   depth.ptr<unsigned short> ( v ) 来获取行指针*/
 98                 unsigned int d = depth.ptr<unsigned short> ( v )[u]; // 深度值16位存储 一般color图像像素中每一个通道是8位
 99
100                  /*             单通道遍历图像的方式总结:
101                  *  注意深度图像的像素占16位 与普通图片每个通道的像素为8位不同
102                  * 1、同样是用上面的双层for循环,遍历图像 用at方式
103                  * for ( int v=0; v<color.rows; v++ )
104                  *      for ( int u=0; u<color.cols; u++ )
105                  *          unsigned int d = depth.at<unsigned short >(v,u);
106                  *
107                  *
108                  * 2、使用迭代器进行图像的遍历
109                  * 不是基于for循环了
110                  * cv::MatIterator_<unsigned short > begin,end;
111                  * for( begin =depth.begin<unsigned short >(), end = depth.end<unsigned short >(); begin != end; ){}
112                  *
113                  * 3、使用指针的方式 如本实验的结果
114                  * */
115
116                 //迭代器的参数是通道数,因为深度图是单通道的,每个像素的值是unsigned short,所以参数是unsigned short
117                 //begin代表像素的开始地方
118                 if ( d==0 ) continue;                // 为0表示没有测量到 然后继续进行for循环那么跳过这个像素继续执行 在后面形成点云时需要设置is_dense为假
119                 Eigen::Vector3d point;
120                 point[2] = double(d)/depthScale;    //对实际尺度的一个缩放
121                 point[0] = (u-cx)*point[2]/fx;      //根据书上5.5式子---86页
122                 point[1] = (v-cy)*point[2]/fy;
123                 Eigen::Vector3d pointWorld = T*point;   //将相机坐标系转换为世界坐标系
124
125                 PointT p ;
126                 p.x = pointWorld[0];    //将世界坐标系下的坐标用pcl专门的点云格式存储起来
127                 p.y = pointWorld[1];
128                 p.z = pointWorld[2];
129
130                 /*  color.step 虽然是一个类,但是它内部有一个转换操作符 operator size_t() const;
131                  * 此时的color.size编译器就会把它当做size_t类型的变量,这个值的大小是1920 这个是随着图像的读入MAT类中会有自动转换然后存储的buf[]中 */
132                 p.b = color.data[ v*color.step+u*color.channels() ];
133                 p.g = color.data[ v*color.step+u*color.channels()+1 ];
134                 p.r = color.data[ v*color.step+u*color.channels()+2 ];
135
136                 /*  -> 是智能指针重载的 然后返回的类型就是输入的类型 可以看上面Ptr的解释说明 */
137                 pointCloud->points.push_back( p );//存储格式好的点
138             }
139     }
140     std::cout<<"点云的列和行为 : "<<pointCloud->width<<" "<<pointCloud->height<<std::endl;
141     //这里有可能深度图中某些像素没有深度信息,那么就是包含无效的像素,所以先置为假,但是如果设置成true的话 也没有看出来有什么不一样的地方
142     pointCloud->is_dense = false;
143     std::cout<<"点云的列和行为 : "<<pointCloud->width<<" "<<pointCloud->height<<std::endl;
144
145     cout<<"点云共有"<<pointCloud->size()<<"个点."<<endl;
146     pcl::io::savePCDFileBinary("map.pcd", *pointCloud );//获取pointCloud指向的对象 这个就当做获取普通指针指向的对象来理解,这个对象是在定义的时候new出来的一段内存空间。
147     return 0;
148
149 }
150 /*                                            备注: 3通道的图像的遍历方式总结
151  * 对于单通道来说 每个像素占8位 3通道则是每个矩阵元素是一个Vec3b 即一个三维的向量 向量内部元素为8位数的unsigned char类型
152  * 1、使用at遍历图像
153  * for(v)row
154  *  for(u)col
155  *      image.at<Vec3b>(v,u)[0] 表示第一个通道的像素的值
156  *      image.at<Vec3b>(v,u)[1]
157  *      image.at<Vec3b>(v,u)[2]
158  * 2、使用迭代器方式 (实际上就是一个指针指向了 cv::Mat矩阵元素)
159  * cv::MatIterator_<Vec3b>begin,end;
160  * for( begin = image.begin<Vec3b>(), end = image.end<Vec3b>() ; begin != end;  )
161  *      (*begin)[0] = ...
162  *      (*begin)[1] = ...
163  *      (*begin)[2] = ...
164  *
165  * 3、用指针的方式操作
166  * for(v)
167  *  for(u)
168  *      image.ptr<Vec3b>(v)[u][0] 表示第一个通道
169  *      image.ptr<Vec3b>(v)[u][0] 表示第二通道
170  *              .
171  *              .
172  *              .
173  * */

原文地址:https://www.cnblogs.com/newneul/p/8407369.html

时间: 2024-09-30 09:33:49

视觉slam十四讲ch5 joinMap.cpp 代码注释(笔记版)的相关文章

入门实战《深度学习技术图像处理入门》+《视觉SLAM十四讲从理论到实践》

学习图像识别处理,想在数据分析竞赛中取得较高的排名,看了<深度学习技术图像处理入门>电子书,一边看电子书一边做标记,对配套的代码也做了测试,收获颇多. 从机器学习.图像处理的基本概念入手,逐步阐述深度学习图像处理技术的基本原理以及简单的实现. 学习理论后做实验,使用卷积神经网络进行端到端学习,构建深度卷积神经网络,使用循环神经网络改进模型,评估模型,测试模型.最关键的是可以将模型运用于实战之中,将深度学习模型导入到工程中,数据类型转换函数,实施CAM可视化,这是我最需要的. 视觉和图形学真是一

浅读《视觉SLAM十四讲:从理论到实践》--操作1--初识SLAM

下载<视觉SLAM十四讲:从理论到实践>源码:https://github.com/gaoxiang12/slambook 第二讲:初识SLAM 2.4.2 Hello SLAM(书本P27) 1.从github上下载源码,并解压 Ubuntu上,解压zip,先找到zip文件所在位置,然后运行下面代码,进行解压. unzip slambook-master.zip 解压后,找到ch2文件夹,在文件夹中找到helloSLAM.cpp文件 运行cpp文件 g++ helloSLAM.cpp 如未安

《视觉slam十四讲》之第3讲-实践Eigen库

<视觉slam十四讲>之第3讲-实践Eigen库 Eigen库的安装 sudo apt-get install libeigen3-dev 注:Eigen是一个由纯头文件搭建的线性代数库,头文件安装路径为/usr/include/eigen3/. 实例1:Eigen的基础运算 #include <iostream> #include <ctime> #include <Eigen/Core> // Eigen 部分 #include <Eigen/De

CV学习资料《卷积神经网络与视觉计算》+《深度学习实践计算机视觉》+《视觉SLAM十四讲从理论到实践》电子资料代码分析

视觉和图形学真是一家,基础都一样! 如果学习图像识别,计算机视觉,推荐电子书<视觉SLAM十四讲:从理论到实践>,系统介绍了视觉SLAM(同时定位与地图构建)所需的基本知识与核心算法,既包括数学理论基础,如三维空间的刚体运动.非线性优化,又包括计算机视觉的算法实现,例如多视图几何.回环检测等. 一个周读完了,代码很清晰!Particle Filtering,KF,EKF, Batch Optimization, Lie Group,ICP,LK光流... 尤其惊喜的是文末作者看好的IMU-SL

《视觉slam十四讲》-第3讲-三维空间刚体运动

<视觉slam十四讲>-第3讲-三维空间刚体运动 原文地址:https://www.cnblogs.com/tangyuanjie/p/12606386.html

视觉SLAM十四讲随笔

**************************************************************************************************************************************************ch1:clion的使用 断点设置之后,逐行执行 (Step Into) ( F7 ),逐函数执行 (Step Over) ( F8 ),注意0和O在clion中的显示区别,0是中间有个点的 O看起来像0,中

视觉slam十四讲ch6曲线拟合 代码注释(笔记版)

1 #include <opencv2/core/core.hpp> 2 #include <ceres/ceres.h> 3 #include <chrono> 4 5 using namespace std; 6 7 // 代价函数的计算模型 8 struct CURVE_FITTING_COST 9 { 10 CURVE_FITTING_COST ( double x, double y ) : _x ( x ), _y ( y ) {} 11 // 残差的计算

《视觉slam十四讲》之第3讲-三维刚体运动

第三讲:三维空间刚体运动 旋转的几种表达方式 向量 关于向量: 注:其中e1,e2,e3为线性空间下的一组基. 向量的内积: 注:向量的内积表示向量间的投影关系. 向量的外积 注:可以使用外积表示向量的旋转. 注:^ 记成一个反对称符号. 旋转矩阵 假设某个单位正交基(e1; e2; e3) ,经过一次欧式变换,变成了(e′ 1; e′ 2; e′ 3),对于同一个向量 a (注意该向量并没有随着坐标系的旋转而发生运动),它在两个坐标系下的坐标为 [a1; a2; a3]T 和 [a′ 1; a

《视觉slam十四讲》-第1讲-全书内容概要

原文地址:https://www.cnblogs.com/tangyuanjie/p/12605748.html