FFmpeg封装格式处理:视音频复用器(muxer)

打算记录一下基于FFmpeg的封装格式处理方面的例子。包括了视音频分离,复用,封装格式转换。这是第3篇。

本文记录一个基于FFmpeg的视音频复用器(Simplest FFmpeg muxer)。视音频复用器(Muxer)即是将视频压缩数据(例如H.264)和音频压缩数据(例如AAC)合并到一个封装格式数据(例如MKV)中去。如图所示。在这个过程中并不涉及到编码和解码。

本文记录的程序将一个H.264编码的视频码流文件和一个MP3编码的音频码流文件,合成为一个MP4封装格式的文件。

,一共初始化了3个AVFormatContext,其中2个用于输入,1个用于输出。3个AVFormatContext初始化之后,通过avcodec_copy_context()函数可以将输入视频/音频的参数拷贝至输出视频/音频的AVCodecContext结构体。然后分别调用视频输入流和音频输入流的av_read_frame(),从视频输入流中取出视频的AVPacket,音频输入流中取出音频的AVPacket,分别将取出的AVPacket写入到输出文件中即可。其间用到了一个不太常见的函数av_compare_ts(),是比较时间戳用的。通过该函数可以决定该写入视频还是音频。

本文介绍的视音频复用器,输入的视频不一定是H.264裸流文件,音频也不一定是纯音频文件。可以选择两个封装过的视音频文件作为输入。程序会从视频输入文件中“挑”出视频流,音频输入文件中“挑”出音频流,再将“挑选”出来的视音频流复用起来。

PS1:对于某些封装格式(例如MP4/FLV/MKV等)中的H.264,需要用到名称为“h264_mp4toannexb”的bitstream filter。

PS2:对于某些封装格式(例如MP4/FLV/MKV等)中的AAC,需要用到名称为“aac_adtstoasc”的bitstream filter。

简单介绍一下流程中各个重要函数的意义:

avformat_open_input():打开输入文件。

avcodec_copy_context():赋值AVCodecContext的参数。

avformat_alloc_output_context2():初始化输出文件。

avio_open():打开输出文件。

avformat_write_header():写入文件头。

av_compare_ts():比较时间戳,决定写入视频还是写入音频。这个函数相对要少见一些。

av_read_frame():从输入文件读取一个AVPacket。

av_interleaved_write_frame():写入一个AVPacket到输出文件。

av_write_trailer():写入文件尾。

代码

下面贴上代码:

[cpp] view
plain
copy

  1. /**
  2. * 最简单的基于FFmpeg的视音频复用器
  3. * Simplest FFmpeg Muxer
  4. *
  5. * 雷霄骅 Lei Xiaohua
  6. * [email protected]
  7. * 中国传媒大学/数字电视技术
  8. * Communication University of China / Digital TV Technology
  9. * http://blog.csdn.net/leixiaohua1020
  10. *
  11. * 本程序可以将视频码流和音频码流打包到一种封装格式中。
  12. * 程序中将MP3编码的音频码流和H.264编码(MPEG2TS封装中)的视频码流打包成
  13. * MP4封装格式的文件。
  14. * 需要注意的是本程序并不改变视音频的编码格式。
  15. *
  16. * This software mux a video bitstream and a audio bitstream
  17. * together into a file.
  18. * In this example, it mux a H.264 bitstream (in MPEG2TS) and
  19. * a MP3 bitstream file together into MP4 format file.
  20. *
  21. */
  22. #include <stdio.h>
  23. extern "C"
  24. {
  25. #include "libavformat/avformat.h"
  26. };
  27. /*
  28. FIX: H.264 in some container format (FLV, MP4, MKV etc.) need
  29. "h264_mp4toannexb" bitstream filter (BSF)
  30. *Add SPS,PPS in front of IDR frame
  31. *Add start code ("0,0,0,1") in front of NALU
  32. H.264 in some container (MPEG2TS) don‘t need this BSF.
  33. */
  34. //‘1‘: Use H.264 Bitstream Filter
  35. #define USE_H264BSF 0
  36. /*
  37. FIX:AAC in some container format (FLV, MP4, MKV etc.) need
  38. "aac_adtstoasc" bitstream filter (BSF)
  39. */
  40. //‘1‘: Use AAC Bitstream Filter
  41. #define USE_AACBSF 0
  42. int main(int argc, char* argv[])
  43. {
  44. AVOutputFormat *ofmt = NULL;
  45. //输入对应一个AVFormatContext,输出对应一个AVFormatContext
  46. //(Input AVFormatContext and Output AVFormatContext)
  47. AVFormatContext *ifmt_ctx_v = NULL, *ifmt_ctx_a = NULL,*ofmt_ctx = NULL;
  48. AVPacket pkt;
  49. int ret, i;
  50. char *in_filename_v = "cuc_ieschool.ts";//输入文件名(Input file URL)
  51. //char *in_filename_v = "cuc_ieschool.h264";
  52. //char *in_filename_a = "cuc_ieschool.mp3";
  53. //char *in_filename_a = "gowest.m4a";
  54. //char *in_filename_a = "gowest.aac";
  55. char *in_filename_a = "huoyuanjia.mp3";
  56. char *out_filename = "cuc_ieschool.mp4";//输出文件名(Output file URL)
  57. av_register_all();
  58. //输入(Input)
  59. if ((ret = avformat_open_input(&ifmt_ctx_v, in_filename_v, 0, 0)) < 0) {
  60. printf( "Could not open input file.");
  61. goto end;
  62. }
  63. if ((ret = avformat_find_stream_info(ifmt_ctx_v, 0)) < 0) {
  64. printf( "Failed to retrieve input stream information");
  65. goto end;
  66. }
  67. if ((ret = avformat_open_input(&ifmt_ctx_a, in_filename_a, 0, 0)) < 0) {
  68. printf( "Could not open input file.");
  69. goto end;
  70. }
  71. if ((ret = avformat_find_stream_info(ifmt_ctx_a, 0)) < 0) {
  72. printf( "Failed to retrieve input stream information");
  73. goto end;
  74. }
  75. printf("Input Information=====================\n");
  76. av_dump_format(ifmt_ctx_v, 0, in_filename_v, 0);
  77. av_dump_format(ifmt_ctx_a, 0, in_filename_a, 0);
  78. printf("======================================\n");
  79. //输出(Output)
  80. avformat_alloc_output_context2(&ofmt_ctx, NULL, NULL, out_filename);
  81. if (!ofmt_ctx) {
  82. printf( "Could not create output context\n");
  83. ret = AVERROR_UNKNOWN;
  84. goto end;
  85. }
  86. ofmt = ofmt_ctx->oformat;
  87. int videoindex_v=-1,videoindex_out=-1;
  88. for (i = 0; i < ifmt_ctx_v->nb_streams; i++) {
  89. //根据输入流创建输出流(Create output AVStream according to input AVStream)
  90. if(ifmt_ctx_v->streams[i]->codec->codec_type==AVMEDIA_TYPE_VIDEO){
  91. videoindex_v=i;
  92. AVStream *in_stream = ifmt_ctx_v->streams[i];
  93. AVStream *out_stream = avformat_new_stream(ofmt_ctx, in_stream->codec->codec);
  94. if (!out_stream) {
  95. printf( "Failed allocating output stream\n");
  96. ret = AVERROR_UNKNOWN;
  97. goto end;
  98. }
  99. videoindex_out=out_stream->index;
  100. //复制AVCodecContext的设置(Copy the settings of AVCodecContext)
  101. if (avcodec_copy_context(out_stream->codec, in_stream->codec) < 0) {
  102. printf( "Failed to copy context from input to output stream codec context\n");
  103. goto end;
  104. }
  105. out_stream->codec->codec_tag = 0;
  106. if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)
  107. out_stream->codec->flags |= CODEC_FLAG_GLOBAL_HEADER;
  108. break;
  109. }
  110. }
  111. int audioindex_a=-1,audioindex_out=-1;
  112. for (i = 0; i < ifmt_ctx_a->nb_streams; i++) {
  113. //根据输入流创建输出流(Create output AVStream according to input AVStream)
  114. if(ifmt_ctx_a->streams[i]->codec->codec_type==AVMEDIA_TYPE_AUDIO){
  115. audioindex_a=i;
  116. AVStream *in_stream = ifmt_ctx_a->streams[i];
  117. AVStream *out_stream = avformat_new_stream(ofmt_ctx, in_stream->codec->codec);
  118. if (!out_stream) {
  119. printf( "Failed allocating output stream\n");
  120. ret = AVERROR_UNKNOWN;
  121. goto end;
  122. }
  123. audioindex_out=out_stream->index;
  124. //复制AVCodecContext的设置(Copy the settings of AVCodecContext)
  125. if (avcodec_copy_context(out_stream->codec, in_stream->codec) < 0) {
  126. printf( "Failed to copy context from input to output stream codec context\n");
  127. goto end;
  128. }
  129. out_stream->codec->codec_tag = 0;
  130. if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)
  131. out_stream->codec->flags |= CODEC_FLAG_GLOBAL_HEADER;
  132. break;
  133. }
  134. }
  135. //输出一下格式------------------
  136. printf("Output Information====================\n");
  137. av_dump_format(ofmt_ctx, 0, out_filename, 1);
  138. printf("======================================\n");
  139. //打开输出文件(Open output file)
  140. if (!(ofmt->flags & AVFMT_NOFILE)) {
  141. if (avio_open(&ofmt_ctx->pb, out_filename, AVIO_FLAG_WRITE) < 0) {
  142. printf( "Could not open output file ‘%s‘", out_filename);
  143. goto end;
  144. }
  145. }
  146. //写文件头(Write file header)
  147. if (avformat_write_header(ofmt_ctx, NULL) < 0) {
  148. printf( "Error occurred when opening output file\n");
  149. goto end;
  150. }
  151. int frame_index=0;
  152. int64_t cur_pts_v=0,cur_pts_a=0;
  153. //FIX
  154. #if USE_H264BSF
  155. AVBitStreamFilterContext* h264bsfc =  av_bitstream_filter_init("h264_mp4toannexb");
  156. #endif
  157. #if USE_AACBSF
  158. AVBitStreamFilterContext* aacbsfc =  av_bitstream_filter_init("aac_adtstoasc");
  159. #endif
  160. while (1) {
  161. AVFormatContext *ifmt_ctx;
  162. int stream_index=0;
  163. AVStream *in_stream, *out_stream;
  164. //获取一个AVPacket(Get an AVPacket)
  165. if(av_compare_ts(cur_pts_v,ifmt_ctx_v->streams[videoindex_v]->time_base,cur_pts_a,ifmt_ctx_a->streams[audioindex_a]->time_base) <= 0){
  166. ifmt_ctx=ifmt_ctx_v;
  167. stream_index=videoindex_out;
  168. if(av_read_frame(ifmt_ctx, &pkt) >= 0){
  169. do{
  170. if(pkt.stream_index==videoindex_v){
  171. cur_pts_v=pkt.pts;
  172. break;
  173. }
  174. }while(av_read_frame(ifmt_ctx, &pkt) >= 0);
  175. }else{
  176. break;
  177. }
  178. }else{
  179. ifmt_ctx=ifmt_ctx_a;
  180. stream_index=audioindex_out;
  181. if(av_read_frame(ifmt_ctx, &pkt) >= 0){
  182. do{
  183. if(pkt.stream_index==audioindex_a){
  184. cur_pts_a=pkt.pts;
  185. break;
  186. }
  187. }while(av_read_frame(ifmt_ctx, &pkt) >= 0);
  188. }else{
  189. break;
  190. }
  191. }
  192. in_stream  = ifmt_ctx->streams[pkt.stream_index];
  193. out_stream = ofmt_ctx->streams[stream_index];
  194. //FIX
  195. #if USE_H264BSF
  196. av_bitstream_filter_filter(h264bsfc, in_stream->codec, NULL, &pkt.data, &pkt.size, pkt.data, pkt.size, 0);
  197. #endif
  198. #if USE_AACBSF
  199. av_bitstream_filter_filter(aacbsfc, in_stream->codec, NULL, &pkt.data, &pkt.size, pkt.data, pkt.size, 0);
  200. #endif
  201. //FIX:No PTS (Example: Raw H.264)
  202. //Simple Write PTS
  203. if(pkt.pts==AV_NOPTS_VALUE){
  204. //Write PTS
  205. AVRational time_base1=in_stream->time_base;
  206. //Duration between 2 frames (us)
  207. int64_t calc_duration=(double)AV_TIME_BASE/av_q2d(in_stream->r_frame_rate);
  208. //Parameters
  209. pkt.pts=(double)(frame_index*calc_duration)/(double)(av_q2d(time_base1)*AV_TIME_BASE);
  210. pkt.dts=pkt.pts;
  211. pkt.duration=(double)calc_duration/(double)(av_q2d(time_base1)*AV_TIME_BASE);
  212. frame_index++;
  213. }
  214. /* copy packet */
  215. //转换PTS/DTS(Convert PTS/DTS)
  216. pkt.pts = av_rescale_q_rnd(pkt.pts, in_stream->time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX));
  217. pkt.dts = av_rescale_q_rnd(pkt.dts, in_stream->time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX));
  218. pkt.duration = av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
  219. pkt.pos = -1;
  220. pkt.stream_index=stream_index;
  221. printf("Write 1 Packet. size:%5d\tpts:%8d\n",pkt.size,pkt.pts);
  222. //写入(Write)
  223. if (av_interleaved_write_frame(ofmt_ctx, &pkt) < 0) {
  224. printf( "Error muxing packet\n");
  225. break;
  226. }
  227. av_free_packet(&pkt);
  228. }
  229. //写文件尾(Write file trailer)
  230. av_write_trailer(ofmt_ctx);
  231. #if USE_H264BSF
  232. av_bitstream_filter_close(h264bsfc);
  233. #endif
  234. #if USE_AACBSF
  235. av_bitstream_filter_close(aacbsfc);
  236. #endif
  237. end:
  238. avformat_close_input(&ifmt_ctx_v);
  239. avformat_close_input(&ifmt_ctx_a);
  240. /* close output */
  241. if (ofmt_ctx && !(ofmt->flags & AVFMT_NOFILE))
  242. avio_close(ofmt_ctx->pb);
  243. avformat_free_context(ofmt_ctx);
  244. if (ret < 0 && ret != AVERROR_EOF) {
  245. printf( "Error occurred.\n");
  246. return -1;
  247. }
  248. return 0;
时间: 2024-11-07 15:44:27

FFmpeg封装格式处理:视音频复用器(muxer)的相关文章

音视频处理之FFmpeg封装格式20180510

一.FFMPEG的封装格式转换器(无编解码) 1.封装格式转换 所谓的封装格式转换,就是在AVI,FLV,MKV,MP4这些格式之间转换(对应.avi,.flv,.mkv,.mp4文件). 需要注意的是,本程序并不进行视音频的编码和解码工作.而是直接将视音频压缩码流从一种封装格式文件中获取出来然后打包成另外一种封装格式的文件. 本程序的工作原理如下图1所示: 由图可见,本程序并不进行视频和音频的编解码工作,因此本程序和普通的转码软件相比,有以下两个特点: 处理速度极快.视音频编解码算法十分复杂,

最简单的基于FFmpeg的封装格式处理:视音频复用器(muxer)

打算记录一下基于FFmpeg的封装格式处理方面的例子.包括了视音频分离,复用,封装格式转换.这是第3篇. 本文记录一个基于FFmpeg的视音频复用器(Simplest FFmpeg muxer).视音频复用器(Muxer)即是将视频压缩数据(例如H.264)和音频压缩数据(例如AAC)合并到一个封装格式数据(例如MKV)中去.如图所示.在这个过程中并不涉及到编码和解码. 本文记录的程序将一个H.264编码的视频码流文件和一个MP3编码的音频码流文件,合成为一个MP4封装格式的文件. 流程 程序的

FFmpeg学习6:视音频同步

在上一篇文章中,视频和音频是各自独立播放的,并不同步.本文主要描述了如何以音频的播放时长为基准,将视频同步到音频上以实现视音频的同步播放的.主要有以下几个方面的内容 视音频同步的简单介绍 DTS 和 PTS 计算视频中Frame的显示时间 获取Audio clock(audio的播放时长) 将视频同步到音频上,实现视音频同步播放 视音频同步简单介绍 一般来说,视频同步指的是视频和音频同步,也就是说播放的声音要和当前显示的画面保持一致.想象以下,看一部电影的时候只看到人物嘴动没有声音传出:或者画面

视音频数据处理入门:FLV封装格式解析

===================================================== 视音频数据处理入门系列文章: 视音频数据处理入门:RGB.YUV像素数据处理 视音频数据处理入门:PCM音频采样数据处理 视音频数据处理入门:H.264视频码流解析 视音频数据处理入门:AAC音频码流解析 视音频数据处理入门:FLV封装格式解析 视音频数据处理入门:UDP-RTP协议解析 ===================================================

FFMPEG视音频编解码零基础学习方法-b

感谢大神分享,虽然现在还看不懂,留着大家一起看啦 PS:有不少人不清楚“FFmpeg”应该怎么读.它读作“ef ef em peg” 0. 背景知识 本章主要介绍一下FFMPEG都用在了哪里(在这里仅列几个我所知的,其实远比这个多).说白了就是为了说明:FFMPEG是非常重要的. 使用FFMPEG作为内核视频播放器: Mplayer,ffplay,射手播放器,暴风影音,KMPlayer,QQ影音... 使用FFMPEG作为内核的Directshow Filter: ffdshow,lav fil

[总结]FFMPEG视音频编解码零基础学习方法【转】

本文转载自:http://blog.csdn.net/leixiaohua1020/article/details/15811977 在CSDN上的这一段日子,接触到了很多同行业的人,尤其是使用FFMPEG进行视音频编解码的人,有的已经是有多年经验的“大神”,有的是刚开始学习的初学者.在和大家探讨的过程中,我忽然发现了一个问题:在“大神”和初学者之间好像有一个不可逾越的鸿沟.“大神”们水平高超,探讨着深奥的问题:而初学者们还停留在入门阶段.究竟是什么原因造成的这种“两极分化”呢?最后,我发现了问

视音频数据处理入门:UDP-RTP协议解析

===================================================== 视音频数据处理入门系列文章: 视音频数据处理入门:RGB.YUV像素数据处理 视音频数据处理入门:PCM音频采样数据处理 视音频数据处理入门:H.264视频码流解析 视音频数据处理入门:AAC音频码流解析 视音频数据处理入门:FLV封装格式解析 视音频数据处理入门:UDP-RTP协议解析 ===================================================

[总结]视音频编解码技术零基础学习方法

一直想把视音频编解码技术做一个简单的总结,可是苦于时间不充裕,一直没能完成.今天有着很大的空闲,终于可以总结一个有关视音频技术的入门教程,可以方便更多的人学习从零开始学习视音频技术.需要注意的是,本文所说的视音频技术,指的是理论层面的视音频技术,并不涉及到编程相关的东西. 0.     生活中的视音频技术 平时我们打开电脑中自己存电影的目录的话,一般都会如下图所示,一大堆五花八门的电影.(其实专业的影视爱好者一概会把影视文件分门别类的,但我比较懒,一股脑把电影放在了一起) 因为下载的来源不同,这

最简单的基于FFmpeg的封装格式处理:视音频分离器简化版(demuxer-simple)

打算记录一下基于FFmpeg的封装格式处理方面的例子.包括了视音频分离,复用,封装格式转换.有关封转格式转换的例子在之前的文章:<最简单的基于FFMPEG的封装格式转换器(无编解码)>中已经有过记录,不再重复.因此计划写3篇文章分别记录视音频的复用器(Muxer)和分离器(Demuxer).其中视音频分离器(Demuxer)记录2篇:一篇简单的,一篇标准的.简单的版本更适合初学者学习.本文是第1篇.首先记录一个基于FFmpeg的视音频分离器简单版(Simplest FFmpeg Demuxer