C++编程音视频库ffmpeg的pts时间换算方法

ffmpeg中的pts,dts,duration时间记录都是基于timebase换算,我们主要分析下pts的时间怎么换算,其它的是一样的换算。ffmpeg的时间换算对许多新接触同学算是一个大坑,很多刚接触ffmpeg的同学都不容易搞清楚它的时间计算方法。

我们先看下ffmpeg时间是怎么算的:

一帧图像(音频)的时间戳(时间戳一般以第一帧为0开始)= pts * (AVRational.num/AVRational.den)

为什么要这么算(挖坑)我们看下ffmpeg的说明:

“当有理数用浮点数做转换时是有损的,ffmpeg要求高精度的计算的时间戳,所以用分数来做换算”。

我们在看下换算用到的结构体,一看到他是用分数就容易理解了

typedef struct AVRational{

int num; ///<分子

int den; ///< 分母

} AVRational;

其实当num=1,den=1000的时候pts的时间单位就相当于毫秒 1/1000秒

其实当num=1,den=1000000的时候pts的时间单位就相当于微秒 1/1000000秒

时间换算

比如我们要通过ffmpeg实现直播推流,推流一个文件,文件中的时间基数一般是{ num=1,den=1000000} ,推流用的正常是timebase {num=1,den=1000}。那就可以做如下计算:

推流的pts = 文件pts * 文件timebase / 推流timebase

如果手动计算要判断分母是否为0,不然会造成程序宕掉。当然ffmpeg内部也提供了转换的函数

int64_t av_rescale_q(int64_t a, AVRational bq, AVRational cq) av_const;

可以直接调用


我们代码示例一下

AVCodecContext *vc = NULL; //视频编码器上下文

AVStream *vs = NULL; //输出rtmp封装器的视频流

///编码,推流处理代码。。。。。

。。。

。。。

//编码后的视频packet,时间基数使用的视频编码器

AVPacket pkt;

。。。

//推流用pts

//使用ffmpeg函数换算

//pkt.pts = av_rescale_q(pkt.pts,vc->timebase,vs->timebase);

//如果手动换算

if(vc->timebase.den > 0 && vs->timebase.den > 0)

pkt.pts = pkt.pts * (vc->timebase.num/vc->timebase.den)/(vs->timebase.num/vs->timebase.den)

更多的资料也可以关注我csdn上的视频课程

夏老师课程专栏http://edu.csdn.net/lecturer/961

C++编程FFMpeg实时美颜直播推流实战-基于ffmpeg,qt5,opencv视频课程

时间: 2024-10-27 01:24:44

C++编程音视频库ffmpeg的pts时间换算方法的相关文章

C/C++音视频库ffmpeg的数据包AVPacket分析

ffmpeg下载地址 http://www.ffmpeg.club/ AVPacket是ffmpeg用来存放编码后的视频帧数据,我们来分析一下这个结构体,先贴出ffmpeg3.2中AVPacket声明的源代码: typedef struct AVPacket { /** * A reference to the reference-counted buffer where the packet data is * stored. * May be NULL, then the packet da

音视频之ffmpeg时间基

FFmpeg中有个比较重要的概念就是时间基. ffmpeg本身有个时间基,视频输入流有时间基,输出流有时间基,音频也是相同道理. 主要的目的是方便他们自己内部计算. 我们先拿视频播放器来举例,其中要对时间进行处理的是视频的时间,音频的时间,然后两者要进行同步. 我们先看timebase的结构体: 这就是一个分数 我们播放一个视频打印日志发现 视频的时间基是1/12800,这个12800怎么算出来的我是真不知道 音频时间基是1/48000,这个还好理解,音频采样率就是48000,也就是一秒钟采样4

音视频开发-FFmpeg

音视频开发是个非常复杂的,庞大的开发话题,初涉其中,先看一下结合 OEIP(开源项目) 新增例子. 可以打开flv,mp4类型文件,以及rtmp协议音视频数据,声音的播放使用SDL. 把采集的麦/声卡数据混合并与采集的视频信息写入媒体文件或是RMTP协议中. 图片主要属性 包含长/宽/通道数/像素格式(U8/U16/F32),以及排列格式RGBA/YUV.其中通道与像素格式,如在opencv中,CV_8UC1/CV_8UC4,表示1个通道与4个通道的U8格式.而排列格式,简单的分为RGBA类的,

音视频框架ffmpeg源码的简要分析

感谢http://m.2cto.com/kf/201201/116171.html这里一系列的文章 最新版的ffmpeg中发现了一个新的东西:avconv,而且ffmpeg.c与avconv.c一个模样,一研究才发现是libav下把ffmpeg改名为avconv了. 到底libav与ffmpeg现在是什么个关系?我也搞得希里糊涂的,先不管它了. ffmpeg的主要功能是音视频的转换和处理.其功能之强大已经到了匪夷所思的地步(有点替它吹了).它的主要特点是能做到把多个输入文件中的任意几个流重新组合

音视频基础,各种连接线的接入方法。

音视频基础 1. 基本流程 2. 流程简介 2.1 解协议 名称 推出机构 传输层协议 客户端 使用领域 RTSP&RTP[&RTCP] IETF TCP&UDP VLC.WMP IPTV RTMP Adobe Inc. TCP Flash 互联网直播 RTMFP Adobe Inc. UDP Flash 互联网直播 MMS Microsoft Inc. TCP/UDP WMP 互联网直播&点播 HTTP WWW+IETF TCP Flash 互联网点播 2.2解封装 名称

FFmpeg中的时间基(time_base), AV_TIME_BASE

AV_TIME_BASE 经常在FFmpeg的代码中看到一个奇怪的单位 AV_TIME_BASE ,比如 AVFormatContext 结构体中就有这样一个字段: duration ,它在FFmpeg中的解释如下: /** * Duration of the stream, in AV_TIME_BASE fractional * seconds. Only set this value if you know none of the individual stream * durations

ffmpeg转码MPEG2-TS的音视频同步机制分析

http://blog.chinaunix.net/uid-26000296-id-3483782.html 一.FFmpeg忽略了adaptation_field()数据FFmpeg忽略了包含PCR值的adaptation_filed数据; 代码(libavformat/mpegts.c)分析如下: /* 解析TS包 */int handle_packet(MpegTSContext *ts, const uint8_t *packet){  ...   pid = AV_RB16(packe

音视频同步问题

音视频同步问题 音视频流里都包含了播放速率的信息,音频使用采样率来表示,而视频则采用f/s来表示,但是我们却不能简单地用这两个数据来对音视频进行同步,我们需要使用DTS(解码时间戳)和PTS(播放时间戳)这两个数据:我们知道影视数据在存储时,会存在多种帧形式,例如MPEG中就采用了I,B和P,由于B帧的存在使得PTS和DTS存在不同(原因见附录),如图1所示为一个简单的例子:当然真正影响我们音视频同步的是PTS. 我们可以从影视文件中获得包的PTS,但是我们无法直接获得帧(我们真正关心的)的PT

音视频处理概要 markdown

最近要想办法把录制的音视频进行拼接. 比方说此次录制的视频有三段,通过高清直播编码器录制,录制下的标准为h.264 直接用ffmpeg简单拼接,音频会丢失,所以有了此次解决方案(有可能会繁琐,简单方案还在探索中) 1.将分段的文件各自提取音频及视频,音频提取为wave流,视频提取为ts. 视频转为标准格式 音频转为wav 这里音频参数需要查看下原始视频文件中的音频信息 查看文件信息命令: ffmpeg -i 1.mp4 转换命令: ffmpeg -i 1.mp4 -c copy -bsf:v h