linux使用UVC采集数据

V4L2是V4L的升级版本,linux下视频设备程序提供了一套接口规范。

常用的结构体在内核目录include/linux/videodev2.h中定义

struct v4l2_requestbuffers  //申请帧缓冲,对应命令VIDIOC_REQBUFS

struct v4l2_capability      //视频设备的功能,对应命令VIDIOC_QUERYCAP

struct v4l2_input           //视频输入信息,对应命令VIDIOC_ENUMINPUT

struct v4l2_standard        //视频的制式,比如PAL,NTSC,对应命令VIDIOC_ENUMSTD

struct v4l2_format          //帧的格式,对应命令VIDIOC_G_FMT、VIDIOC_S_FMT等

struct v4l2_buffer          //驱动中的一帧图像缓存,对应命令VIDIOC_QUERYBUF

struct v4l2_crop            //视频信号矩形边框

v4l2_std_id                 //视频制式

V4L2采用流水线的方式,操作更简单直观,基本遵循打开视频设备、设置格式、处理数据、关闭设备,更多的具体操作通过ioctl函数来实现。

1.打开视频设备

在V4L2中,视频设备被看做一个文件。使用open函数打开这个设备:

// 用非阻塞模式打开摄像头设备

int cameraFd;

cameraFd = open("/dev/video0", O_RDWR | O_NONBLOCK, 0);

// 如果用阻塞模式打开摄像头设备,上述代码变为:

//cameraFd = open("/dev/video0", O_RDWR, 0);

应用程序能够使用阻塞模式或非阻塞模式打开视频设备,如果使用非阻塞模式调用视频设备,即使尚未捕获到信息,驱动依旧会把缓存(DQBUFF)里的东西返回给应用程序。

2. 设定属性及采集方式

打开视频设备后,可以设置该视频设备的属性,例如裁剪、缩放等。这一步是可选的。在Linux编程中,一般使用ioctl函数来对设备的I/O通道进行管理:

int ioctl (int __fd, unsigned long int __request, .../*args*/) ;

在进行V4L2开发中,常用的命令标志符如下(some are optional):

?    VIDIOC_REQBUFS:分配内存

?    VIDIOC_QUERYBUF:把VIDIOC_REQBUFS中分配的数据缓存转换成物理地址

?    VIDIOC_QUERYCAP:查询驱动功能

?    VIDIOC_ENUM_FMT:获取当前驱动支持的视频格式

?    VIDIOC_S_FMT:设置当前驱动的频捕获格式

?    VIDIOC_G_FMT:读取当前驱动的频捕获格式

?    VIDIOC_TRY_FMT:验证当前驱动的显示格式

?    VIDIOC_CROPCAP:查询驱动的修剪能力

?    VIDIOC_S_CROP:设置视频信号的边框

?    VIDIOC_G_CROP:读取视频信号的边框

?    VIDIOC_QBUF:把数据从缓存中读取出来

?    VIDIOC_DQBUF:把数据放回缓存队列

?    VIDIOC_STREAMON:开始视频显示函数

?    VIDIOC_STREAMOFF:结束视频显示函数

?    VIDIOC_QUERYSTD:检查当前视频设备支持的标准,例如PAL或NTSC。

2.1检查当前视频设备支持的标准

在亚洲,一般使用PAL(720X576)制式的摄像头,而欧洲一般使用NTSC(720X480),使用VIDIOC_QUERYSTD来检测:

v4l2_std_id std;

do {

ret = ioctl(fd, VIDIOC_QUERYSTD, &std);

} while (ret == -1 && errno == EAGAIN);

switch (std) {

case V4L2_STD_NTSC:

//……

case V4L2_STD_PAL:

//……

}

2.2 设置视频捕获格式

当检测完视频设备支持的标准后,还需要设定视频捕获格式,结构如下:

struct v4l2_format fmt;

memset ( &fmt, 0, sizeof(fmt) );

fmt.type                = V4L2_BUF_TYPE_VIDEO_CAPTURE;

fmt.fmt.pix.width       = 720;

fmt.fmt.pix.height      = 576;

fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;

fmt.fmt.pix.field       = V4L2_FIELD_INTERLACED;

if (ioctl(fd, VIDIOC_S_FMT, &fmt) == -1) {

return -1;

}

v4l2_format结构如下:

struct v4l2_format {

enum v4l2_buf_type type; //数据流类型,必须永远是V4L2_BUF_TYPE_VIDEO_CAPTURE

union

{

struct v4l2_pix_format   pix;

struct v4l2_window        win;

struct v4l2_vbi_format   vbi;

__u8    raw_data[200];

} fmt;

};

struct v4l2_pix_format {

__u32                   width;          // 宽,必须是16的倍数

__u32                   height;         // 高,必须是16的倍数

__u32                   pixelformat;   // 视频数据存储类型,例如是YUV4:2:2还是RGB

enum v4l2_field         field;

__u32                   bytesperline;

__u32                   sizeimage;

enum v4l2_colorspace    colorspace;

__u32                   priv;

};

2.3 分配内存

接下来可以为视频捕获分配内存:

struct v4l2_requestbuffers  req;

req.count  = BUFFER_COUNT;

req.type   = V4L2_BUF_TYPE_VIDEO_CAPTURE;

req.memory = V4L2_MEMORY_MMAP;

if (ioctl(fd, VIDIOC_REQBUFS, &req) == -1) {

return -1;

}

v4l2_requestbuffers 结构如下:

struct v4l2_requestbuffers {

u32                count;//缓存数量,也就是说在缓存队列里保持多少张照片

enum v4l2_buf_type type; //数据流类型,必须永远是V4L2_BUF_TYPE_VIDEO_CAPTURE

enum v4l2_memory   memory;//V4L2_MEMORY_MMAP或V4L2_MEMORY_USERPTR

u32                reserved[2];

};

2.4 获取并记录缓存的物理空间

使用VIDIOC_REQBUFS,我们获取了req.count个缓存,下一步通过调用VIDIOC_QUERYBUF命令来获取这些缓存的地址,然后使用mmap函数转换成应用程序中的绝对地址,最后把这段缓存放入缓存队列:

typedef struct VideoBuffer {

void   *start;

size_t  length;

} VideoBuffer;

v4l2_buffer     结构如下:

struct v4l2_buffer {

__u32                 index;

enum v4l2_buf_type    type;

__u32                 bytesused;

__u32                 flags;

enum v4l2_field       field;

struct timeval        timestamp;

struct v4l2_timecode  timecode;

__u32                 sequence;

/* memory location */

enum v4l2_memory      memory;

union {

__u32            offset;

unsigned long  userptr;

} m;

__u32                   length;

__u32                   input;

__u32                   reserved;

};

VideoBuffer*         buffers = calloc( req.count, sizeof(*buffers) );

struct v4l2_buffer  buf;

for (numBufs = 0; numBufs < req.count; numBufs++)

{

memset( &buf, 0, sizeof(buf) );

buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

buf.memory = V4L2_MEMORY_MMAP;

buf.index = numBufs;

// 读取缓存

if (ioctl(fd, VIDIOC_QUERYBUF, &buf) == -1) {

return -1;

}

buffers[numBufs].length = buf.length;

// 转换成相对地址

buffers[numBufs].start = mmap(NULL, buf.length, PROT_READ | PROT_WRITE,

MAP_SHARED,fd, buf.m.offset);

if (buffers[numBufs].start == MAP_FAILED) {

return -1;

}

// 放入缓存队列

if (ioctl(fd, VIDIOC_QBUF, &buf) == -1) {

return -1;

}

}

2.5 视频采集方式

操作系统一般把系统使用的内存划分成用户空间和内核空间,分别由应用程序管理和操作系统管理。应用程序可以直接访问内存的地址,而内核空间存放的是供内核访问的代码和数据,用户不能直接访问。v4l2捕获的数据,最初是存放在内核空间的,这意味着用户不能直接访问该段内存,必须通过某些手段来转换地址。

一共有三种视频采集方式:使用read/write方式;内存映射方式和用户指针模式。

read、write方式,在用户空间和内核空间不断拷贝数据,占用了大量用户内存空间,效率不高。

内存映射方式:把设备里的内存映射到应用程序中的内存控件,直接处理设备内存,这是一种有效的方式。上面的mmap函数就是使用这种方式。

用户指针模式:内存片段由应用程序自己分配。这点需要在v4l2_requestbuffers里将memory字段设置成V4L2_MEMORY_USERPTR。

2.6 处理采集数据

V4L2有一个数据缓存,存放req.count数量的缓存数据。数据缓存采用FIFO的方式,当应用程序调用缓存数据时,缓存队列将最先采集到的视频数据缓存送出,并重新采集一张视频数据。这个过程需要用到两个ioctl命令,VIDIOC_DQBUF和VIDIOC_QBUF:

struct v4l2_buffer buf;

memset(&buf,0,sizeof(buf));

buf.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;

buf.memory=V4L2_MEMORY_MMAP;

buf.index=0;

//读取缓存

if (ioctl(cameraFd, VIDIOC_DQBUF, &buf) == -1)

{

return -1;

}

//…………视频处理算法

//重新放入缓存队列

if (ioctl(cameraFd, VIDIOC_QBUF, &buf) == -1) {

return -1;

}

3. 关闭视频设备

使用close函数关闭一个视频设备

close(cameraFd)

如果使用mmap,最后还需要使用munmap方法。

下面是damo程序(经过实际验证,修改了网上的例程的错误)

-----------------------------------------------------------------------------------------------------------

#include <stdio.h>

#include <stdlib.h>

#include <string.h>

#include <assert.h>

#include <getopt.h>

#include <fcntl.h>

#include <unistd.h>

#include <errno.h>

#include <malloc.h>

#include <sys/stat.h>

#include <sys/types.h>

#include <sys/time.h>

#include <sys/mman.h>

#include <sys/ioctl.h>

#include <asm/types.h>

#include <linux/videodev2.h>

#define CAMERA_DEVICE "/dev/video0"

#define CAPTURE_FILE "frame.jpg"

#define VIDEO_WIDTH 640

#define VIDEO_HEIGHT 480

#define VIDEO_FORMAT V4L2_PIX_FMT_YUYV

#define BUFFER_COUNT 4

typedef struct VideoBuffer {

void   *start;

size_t  length;

} VideoBuffer;

int main()

{

int i, ret;

// 打开设备

int fd;

fd = open(CAMERA_DEVICE, O_RDWR, 0);

if (fd < 0) {

printf("Open %s failed\n", CAMERA_DEVICE);

return -1;

}

// 获取驱动信息

struct v4l2_capability cap;

ret = ioctl(fd, VIDIOC_QUERYCAP, &cap);

if (ret < 0) {

printf("VIDIOC_QUERYCAP failed (%d)\n", ret);

return ret;

}

// Print capability infomations

printf("Capability Informations:\n");

printf(" driver: %s\n", cap.driver);

printf(" card: %s\n", cap.card);

printf(" bus_info: %s\n", cap.bus_info);

printf(" version: %08X\n", cap.version);

printf(" capabilities: %08X\n", cap.capabilities);

// 设置视频格式

struct v4l2_format fmt;

memset(&fmt, 0, sizeof(fmt));

fmt.type                = V4L2_BUF_TYPE_VIDEO_CAPTURE;

fmt.fmt.pix.width       = VIDEO_WIDTH;

fmt.fmt.pix.height      = VIDEO_HEIGHT;

fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;

fmt.fmt.pix.field       = V4L2_FIELD_INTERLACED;

ret = ioctl(fd, VIDIOC_S_FMT, &fmt);

if (ret < 0) {

printf("VIDIOC_S_FMT failed (%d)\n", ret);

return ret;

}

// 获取视频格式

ret = ioctl(fd, VIDIOC_G_FMT, &fmt);

if (ret < 0) {

printf("VIDIOC_G_FMT failed (%d)\n", ret);

return ret;

}

// Print Stream Format

printf("Stream Format Informations:\n");

printf(" type: %d\n", fmt.type);

printf(" width: %d\n", fmt.fmt.pix.width);

printf(" height: %d\n", fmt.fmt.pix.height);

char fmtstr[8];

memset(fmtstr, 0, 8);

memcpy(fmtstr, &fmt.fmt.pix.pixelformat, 4);

printf(" pixelformat: %s\n", fmtstr);

printf(" field: %d\n", fmt.fmt.pix.field);

printf(" bytesperline: %d\n", fmt.fmt.pix.bytesperline);

printf(" sizeimage: %d\n", fmt.fmt.pix.sizeimage);

printf(" colorspace: %d\n", fmt.fmt.pix.colorspace);

printf(" priv: %d\n", fmt.fmt.pix.priv);

printf(" raw_date: %s\n", fmt.fmt.raw_data);

// 请求分配内存

struct v4l2_requestbuffers reqbuf;

reqbuf.count = BUFFER_COUNT;

reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

reqbuf.memory = V4L2_MEMORY_MMAP;

ret = ioctl(fd , VIDIOC_REQBUFS, &reqbuf);

if(ret < 0) {

printf("VIDIOC_REQBUFS failed (%d)\n", ret);

return ret;

}

// 获取空间

VideoBuffer*  buffers = calloc( reqbuf.count, sizeof(*buffers) );

struct v4l2_buffer buf;

for (i = 0; i < reqbuf.count; i++)

{

buf.index = i;

buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

buf.memory = V4L2_MEMORY_MMAP;

ret = ioctl(fd , VIDIOC_QUERYBUF, &buf);

if(ret < 0) {

printf("VIDIOC_QUERYBUF (%d) failed (%d)\n", i, ret);

return ret;

}

// mmap buffer

framebuf[i].length = buf.length;

framebuf[i].start = (char *) mmap(0, buf.length, PROT_READ|PROT_WRITE, MAP_SHARED, fd, buf.m.offset);

if (framebuf[i].start == MAP_FAILED) {

printf("mmap (%d) failed: %s\n", i, strerror(errno));

return -1;

}

// Queen buffer

ret = ioctl(fd , VIDIOC_QBUF, &buf);

if (ret < 0) {

printf("VIDIOC_QBUF (%d) failed (%d)\n", i, ret);

return -1;

}

printf("Frame buffer %d: address=0x%x, length=%d\n", i, (unsigned int)framebuf[i].start, framebuf[i].length);

}

// 开始录制

enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

ret = ioctl(fd, VIDIOC_STREAMON, &type);

if (ret < 0) {

printf("VIDIOC_STREAMON failed (%d)\n", ret);

return ret;

}

// Get frame

ret = ioctl(fd, VIDIOC_DQBUF, &buf);

if (ret < 0) {

printf("VIDIOC_DQBUF failed (%d)\n", ret);

return ret;

}

// Process the frame

FILE *fp = fopen(CAPTURE_FILE, "wb");

if (fp < 0) {

printf("open frame data file failed\n");

return -1;

}

fwrite(framebuf[buf.index].start, 1, buf.length, fp);

fclose(fp);

printf("Capture one frame saved in %s\n", CAPTURE_FILE);

// Re-queen buffer

ret = ioctl(fd, VIDIOC_QBUF, &buf);

if (ret < 0) {

printf("VIDIOC_QBUF failed (%d)\n", ret);

return ret;

}

// Release the resource

for (i=0; i< 4; i++)

{

munmap(framebuf[i].start, framebuf[i].length);

}

close(fd);

printf("Camera test Done.\n");

return 0;

}

-----------------------------------------------------------------------------------------------------------

附件:

void *mmap(void *start, size_t length, int prot, int flags, int fd, off_t offset);

int munmap(void *start, size_t length);

参数说明:

——start:映射区的开始地址。

——length:映射区的长度。

——prot:期望的内存保护标志,不能与文件的打开模式冲突。是以下的某个值,可以通过or运算合理地组合在一起

      —PROT_EXEC //页内容可以被执行

      —PROT_READ //页内容可以被读取

      —PROT_WRITE //页可以被写入

—PROT_NONE //页不可访问

——flags:指定映射对象的类型,映射选项和映射页是否可以共享。它的值可以是一个或者多个以下位的组合体

     —MAP_FIXED //使用指定的映射起始地址,如果由start和len参数指定的内存区重叠于现存的映射空间,重叠部分将会被丢弃。如果指定的起始地址不可用,操作将会失败。并且起始地址必须落在页的边界上。

     —MAP_SHARED //与其它所有映射这个对象的进程共享映射空间。对共享区的写入,相当于输出到文件。直到msync()或者munmap()被调用,文件实际上不会被更新。

     —MAP_PRIVATE //建立一个写入时拷贝的私有映射。内存区域的写入不会影响到原文件。这个标志和以上标志是互斥的,只能使用其中一个。

     —MAP_DENYWRITE //这个标志被忽略。

     —MAP_EXECUTABLE //同上

     —MAP_NORESERVE //不要为这个映射保留交换空间。当交换空间被保留,对映射区修改的可能会得到保证。当交换空间不被保留,同时内存不足,对映射区的修改会引起段违例信号。

     —MAP_LOCKED //锁定映射区的页面,从而防止页面被交换出内存。

     —MAP_GROWSDOWN //用于堆栈,告诉内核VM系统,映射区可以向下扩展。

     —MAP_ANONYMOUS //匿名映射,映射区不与任何文件关联。

     —MAP_ANON //MAP_ANONYMOUS的别称,不再被使用。

     —MAP_FILE //兼容标志,被忽略。

     —MAP_32BIT //将映射区放在进程地址空间的低2GB,MAP_FIXED指定时会被忽略。当前这个标志只在x86-64平台上得到支持。

     —MAP_POPULATE //为文件映射通过预读的方式准备好页表。随后对映射区的访问不会被页违例阻塞。

     —MAP_NONBLOCK //仅和MAP_POPULATE一起使用时才有意义。不执行预读,只为已存在于内存中的页面建立页表入口。

——fd:有效的文件描述词。如果MAP_ANONYMOUS被设定,为了兼容问题,其值应为-1。

——offset:被映射对象内容的起点。

返回值:

成功执行时,mmap()返回被映射区的指针,munmap()返回0。

失败时,mmap()返回MAP_FAILED[其值为(void *)-1],munmap返回-1。errno被设为以下的某个值。

时间: 2024-11-08 15:34:47

linux使用UVC采集数据的相关文章

linux FFMPEG 摄像头采集数据推流

Linux下用 FFMPEG 采集 usb摄像头视频 和 摄像头内置麦克风音频 到RTMP服务 ffmpeg -f video4linux2 -qscale 10 -r 12 -s 640x480 -i /dev/video0 -f alsa -i hw:1 -ab 16 -ar 22050 -ac 1 -f mp3 -f flv rtmp://127.0.0.1/rtmpsvr/rtmp1 ./ffmpeg -f video4linux2 -s 640x480 -i /dev/video0 -

linux 服务器脚本采集数据中文无法执行错误

问题描述:在 RHEL6 版本的服务器上使用脚本操作数据库,其中一个SQL的字段值为中文,每次使用 crontab定时 执行该脚本无法获取数据,实现预期效果,而手动执行正常. oracle client使用的11.2.0版本 解决方法:编辑 /etc/profile文件(普通权限就行),添加如下内容: export PATH USER LOGNAME MAIL HOSTNAME HISTSIZE HISTCONTROL PATH=$PATH:$HOME/bin export PATH expor

性能测试 基于Python结合InfluxDB及Grafana图表实时采集Linux多主机性能数据

基于Python结合InfluxDB及Grafana图表实时采集Linux多主机性能数据   by:授客 QQ:1033553122 实现功能 测试环境 环境搭建 使用前提 使用方法 运行程序 效果展示 实现功能 无需在被监控主机上安装代理,一键对Linux远程服务器不同主机执行性能监控.性能数据采集命令,并实时展示 支持跨堡垒机收集实时性能数据(注:定制化开发,非通用) 支持docker容器(因为程序实现是从docker容器内部获取性能数据,所以目前仅支持 CPU,内存,I/O) 使用前提 可

Linux使用nmon采集性能系统信息

1.nmon下载地址:https://sourceforge.net/projects/nmon/files/ 创建文件nmon:# mkdir nmon 解压文件夹:# tar -zxvf nmon_linux.tar.gz 赋予权限:# chmod -R nmon 启动nmon:# ./nmon_x86_64_sles12 2.配置环境变量: 更改文件名:# mv nmon_x86_64_sles12 nmon 添加环境变量:# vi /etc/profile PATH=$PATH:/usr

cmdb客户端采集数据的完善

file文件自己去拷贝(这里不提供) custom_settings.py import os BASEDIR = os.path.dirname(os.path.dirname(os.path.abspath(__file__))) 获取到根路径 MODE = 'agent' SSH_USERNAME = 'root' SSH_PASSWORD = '123' SHH_PORT = 22 DEBUG = True #代码调试,如果为True就会读取file中文件的内容,如果不是会执行linux

C#+HtmlAgilityPack+XPath带你采集数据(以采集天气数据为例子)

转自原文C#+HtmlAgilityPack+XPath带你采集数据(以采集天气数据为例子) 阅读目录 1.HtmlAgilityPack简介 2.XPath技术介绍与使用 3.采集天气网站案例 4.资源 第一次接触HtmlAgilityPack是在5年前,一些意外,让我从技术部门临时调到销售部门,负责建立一些流程和寻找潜在客户,最后在阿里巴巴找到了很多客户信息,非常全面,刚开始是手动复制到Excel,是真尼玛的累,虽然那个时候C#还很菜,也想能不能通过程序来批量获取(所以平时想法要多才好).几

基于PHP采集数据入库程序(二)

在上篇基于PHP采集数据入库程序(二) 中提到采集新闻信息页的列表数据,接下来讲讲关于采集新闻具体内容 这是上篇博客的最终数据表截图: 接下来要做的操作就是从数据库中读取所需要采集的URL,进行页面抓取就行 新建一个content表 不过需要注意的一点是,不能再采用采集URL这种id递增的方法去采集,因为数据表中可能出现id断续,比如id=9,id=11,当采集到id=10的时候,URL是空白的,这样可能会导致采集到了空字段. 这里用到的一个技巧是数据库的查询语句,在我们采集完第一条数据的时候,

Linux分区加密保护数据

一.首先创建分区 二.创建新的加密卷 加密分区 解密分区 创建文件系统 创建挂载点,然后挂载 卸载加密卷,并锁定加密的卷 下次要是再想使用这个加密卷怎么办? 再次打开加密卷就OK啦! 关于上面的图片解释下,作者刚刚改变映射名称时候,手动是可以挂载和打开的,第一次不知道怎么回事,挂载不上去,说是文件系统不对,搞了好一会都不知道怎么回事,所以重新格式化了一下,即重做文件系统: mkfs.ext4 /dev/mapper/jiami,第一次做的映射名是mydisk,建议这个映射名还是不要改的好,每次打

使用ScrapySharp快速从网页中采集数据

转自原文 使用ScrapySharp快速从网页中采集数据 ScrapySharp是一个帮助我们快速实现网页数据采集的库,它主要提供了如下两个功能 从Url获取Html数据 提供CSS选择器的方式解析Html节点 安装: ScrapySharp可以直接从Nuget上下载,直接从Package Console里面输入如下命令即可: PM> Install-Package ScrapySharp Html下载 首先我们来看看它的Html下载功能,它是通过ScrapingBrowser类来实现的: va