FFMPEG的解码后的数据格式

这两天在阅读电视转发服务器中的流媒体底层库的源码时,在看到显示部分的时候,遇到了一些疑问:

就是在用d3d做显示时候,我们显示的数据格式,指定为yv12,对于YV12的数据格式在内存中的分布,可以参考YV12的相关文章,这里我就暂时略过。

下面是将数据拷贝到显示的锁定内存中,用于显示:

for(i = 0;i < h;i ++){//Y数据拷贝
memcpy(p + i * stride,item->output + i * w, w);
}
for(i = 0;i < h/2;i ++){//U数据拷贝
memcpy(p + stride * h + i * stride / 2,item->output + w * h + w * h / 4 + i * w / 2, w / 2);
}
for(i = 0;i < h/2;i ++){//V数据拷贝
memcpy(p + stride * h + stride * h / 4 + i * stride / 2,item->output + w * h + i * w / 2, w / 2);
}

而在显示之前,也就是解码的时候,也进行过数据的拷贝:

memcpy(&(pItemF.head),&(m_tRecentItem.head),sizeof(AV_HEAD_PARAM));
for (int i=0;i<m_tRecentItem.head.height;i++)//Y数据拷贝   
memcpy(pYUVBuf+i*m_tRecentItem.head.width , m_tRecentItem.picture->data[0]+i*m_tRecentItem.picture ->linesize[0], m_tRecentItem.head.width);
for (int i=0;i<m_tRecentItem.head.height/2;i++)//U数据拷贝
memcpy(pYUVBuf+m_tRecentItem.head.height*m_tRecentItem.head.width+i*m_tRecentItem.head.width/2 , m_tRecentItem.picture->data[1]+i*m_tRecentItem.picture ->linesize[1], m_tRecentItem.head.width/2);
for (int i=0;i<m_tRecentItem.head.height/2;i++)//V数据拷贝
memcpy(pYUVBuf + m_tRecentItem.head.height*m_tRecentItem.head.width + m_tRecentItem.head.height/2 * m_tRecentItem.head.width/2 + i*m_tRecentItem.head.width/2 , m_tRecentItem.picture->data[2]+i*m_tRecentItem.picture ->linesize[2], m_tRecentItem.head.width/2);

而上面的item->output=pYUVBuf

如果显示的数据是YV12,那么解码以后的数据格式又是怎么样的格式?

--------------------------------------------------------------

在经过一番查找资料以后知道,解码以后的数据格式是I420.

在此博客中提过:http://blog.sina.com.cn/s/blog_4ae178ba01018o7q.html

解码

如果您只要求解成YUV 420I数据,只需一次调用就可以了:

avcodec_decode_video(g_pCodecCtx, g_pavfFrame, (int *)&nGot, (unsigned __int8 *)pSrcData, dwDataLen);

这里,nGot用来返回解码成功与否,avcodec_decode_video调用完成后,如果nGot不等于0,则表示解码成功,否则未解出视频帧。

pSrcData是待解的H264编码的一段数据流,dwDataLen表示该段数据流的长度,单位是byte。

解 码后的视频帧(YUV数据)被存入g_pavfFrame,g_pavfFrame->data[0]、 g_pavfFrame->data[1]、g_pavfFrame->data[2]即是YUV数据。下面的示例代码把YUV数据压在了一 块内存里,排列方式为:

YY

YY

U

V

该函数有返回值:如果解码成功,则返回本次解码使用的码流字节数,否则返回0。

------------------------------------------------------------------------

YV12和I420的区别

一般来说,直接采集到的视频数据是RGB24的格式,RGB24一帧的大小size=width×heigth×3 Bit,RGB32的size=width×heigth×4,如果是I420(即YUV标准格式4:2:0)的数据量是 size=width×heigth×1.5 Bit。
在采集到RGB24数据后,需要对这个格式的数据进行第一次压缩。即将图像的颜色空间由RGB2YUV。因为,X264在进行编码的时候需要标准的YUV(4:2:0)。但是这里需要注意的是,虽然YV12也是(4:2:0),但是YV12和I420的却是不同的,在存储空间上面有些区别。如下:
YV12 : 亮度(行×列) + V(行×列/4) + U(行×列/4)
I420 : 亮度(行×列) + U(行×列/4) + V(行×列/4)
可以看出,YV12和I420基本上是一样的,就是UV的顺序不同。

------------------------------------------------------------------

从上面这段话,我们可以知道,在做显示的时候,因为i420的格式数据和yv12格式的数据uv存储顺序不一样,所以我们在做显示的时候,对数据进行了一次从新存储。

时间: 2024-11-01 22:16:30

FFMPEG的解码后的数据格式的相关文章

FFMPEG结构体分析:AVFrame(解码后的数据)

https://blog.csdn.net/jxcr1984/article/details/52766524 本文转自: http://blog.csdn.net/leixiaohua1020/article/details/14214577 /*   *雷霄骅   *[email protected]   *中国传媒大学/数字电视技术   */   /**   * Audio Video Frame.   * New fields can be added to the end of AVF

(转)FFMPEG:H264解码-SDL显示(RGB32、RGB24、YUV420P、YUV422)

FFMpeg对视频文件进行解码的大致流程 1. 注册所有容器格式: av_register_all()2. 打开文件: av_open_input_file()3. 从文件中提取流信息: av_find_stream_info()4. 穷举所有的流,查找其中种类为CODEC_TYPE_VIDEO5. 查找对应的解码器: avcodec_find_decoder()6. 打开编解码器: avcodec_open()7. 为解码帧分配内存: avcodec_alloc_frame()8. 不停地从码

ffmpeg编解码详细过程(转载)

1. 注册所有容器格式和CODEC:av_register_all() 2. 打开文件:av_open_input_file() 3. 从文件中提取流信息:av_find_stream_info() 4. 穷举所有的流,查找其中种类为CODEC_TYPE_VIDEO 5. 查找对应的解码器:avcodec_find_decoder() 6. 打开编解码器:avcodec_open() 7. 为解码帧分配内存:avcodec_alloc_frame() 8. 不停地从码流中提取出帧数据:av_re

用libvlc 抓取解码后的帧数据

vlc是一套优秀的开源媒体库,其特点是提供了完整的流媒体框架, 用它可以非常方便的实现抓取解码帧的功能. 与此功能有关的关键API为 libvlc_video_set_callbacks /*设置回调,用来抓取解码后的帧*/ libvlc_video_set_format /*设置解码帧的格式 yuv or rgba ?*/ 这个函数将三个函数指针作为参数 /*callback function, lock the shared memory, and tell vlc where to put

使用FFMPEG SDK解码流数据

本文以H264视频流为例,讲解解码流数据的步骤. 为突出重点,本文只专注于讨论解码视频流数据,不涉及其它(如开发环境的配置等).如果您需要这方面的信息,请和我联系. 准备变量 定义AVCodecContext.如果您使用类,可以定义成类成员.我这里定义成全局变量. static AVCodecContext * g_pCodecCtx = NULL; 定义一个AVFrame,AVFrame描述一个多媒体帧.解码后的数据将被放在其中. static AVFrame * g_pavfFrame =

Android Multimedia框架总结(二十六)利用FFmpeg进行解码直播流

转载请把头部出处链接和尾部二维码一起转载,本文出自逆流的鱼yuiop:http://blog.csdn.net/hejjunlin/article/details/59225373 早在去年九月份时,写过一篇<手把手图文并茂教你用Android Studio编译FFmpeg库并移植>,今天用去年编译好的3.1.3的ffmpeg,进行在Android平台上解码直播流.看下Agenda: 环境 Java代码 ndk代码 解码运行 环境: Mac OX Android Studio 2.2 andr

使用FAAD库解码AAC实例及 及 faad解码后的通道数不正确的问题

使用FAAD解码AAC音频为PCM数据流程可以参考下面的文章 http://blog.csdn.net/gavinr/article/details/6959198#reply /** * faaddec.c * use faad library to decode AAC, only can decode frame with ADTS head */ #include <stdio.h> #include <memory.h> #include "faad.h&quo

关于ffmpeg(libav)解码视频最后丢帧的问题

其实最初不是为了解决这个问题而来的,是Peter兄给我的提示解决另一个问题却让我误打误撞解决了另外一个问题之后也把这个隐藏了很久的bug找到(之前总是有一些特别短的视频产生不知所措还以为是视频素材本身有问题呢),今天真是收获颇丰啊,对libav的理解更深. 一直以来我的程序架构是让读一帧av_read_frame,然后去尝试根据packet的type类型分别去decode video或者audio,然而这样总是在视频的结尾会有许多帧丢失的问题,我找过avplay代码中似乎没找到我想象中的那种读p

FFmpeg - 音频解码过程

1. 注册所有解码器 av_register_all(); 2. Codec & CodecContext AVCodec* codec = avcodec_find_decoder(CODEC_ID_AAC);    if (!codec)    {        fprintf(stderr, "codec not found\n");        exit(1);    } AVCodecContext *codec_ctx= avcodec_alloc_context