FFmpeg基础一

来源:http://blog.csdn.net/chance_yin/article/details/10323441

一、研究数字多媒体,首先要了解几个基本术语(ffmpeg的相关文档几乎都是英文的,不弄懂几个基本术语看文档还是比较吃力的)

1、容器/文件 (Container/file) ,既多媒体源文件

2、媒体流(Stream):与时间相关的一段连续数据。既某一时刻对应某个数据,这样的多个连续数据组在一起就成了媒体流。

3、数据帧/数据包(Frame/Packet):一个媒体流由大量的数据帧构成。数据帧也是编解码器最小的处理单元。

二、FFmpeg 基础---FFmpeg中重要的几个数据结构

1、AVCodecContext,这是一个描述编解码器上下文的数据结构,包含了众多编解码器需要的参数信息

[cpp] view plaincopy

  1. typedef struct AVCodecContext {
  2. ......
  3. /**
  4. * some codecs need / can use extradata like Huffman tables.
  5. * mjpeg: Huffman tables
  6. * rv10: additional flags
  7. * mpeg4: global headers (they can be in the bitstream or here)
  8. * The allocated memory should be FF_INPUT_BUFFER_PADDING_SIZE bytes larger
  9. * than extradata_size to avoid prolems if it is read with the bitstream reader.
  10. * The bytewise contents of extradata must not depend on the architecture or CPU endianness.
  11. * - encoding: Set/allocated/freed by libavcodec.
  12. * - decoding: Set/allocated/freed by user.
  13. */
  14. uint8_t *extradata;
  15. int extradata_size;
  16. /**
  17. * This is the fundamental unit of time (in seconds) in terms
  18. * of which frame timestamps are represented. For fixed-fps content,
  19. * timebase should be 1/framerate and timestamp increments should be
  20. * identically 1.
  21. * - encoding: MUST be set by user.
  22. * - decoding: Set by libavcodec.
  23. */
  24. AVRational time_base;
  25. /* video only */
  26. /**
  27. * picture width / height.
  28. * - encoding: MUST be set by user.
  29. * - decoding: Set by libavcodec.
  30. * Note: For compatibility it is possible to set this instead of
  31. * coded_width/height before decoding.
  32. */
  33. int width, height;
  34. ......
  35. /* audio only */
  36. int sample_rate; ///< samples per second
  37. int channels;    ///< number of audio channels
  38. /**
  39. * audio sample format
  40. * - encoding: Set by user.
  41. * - decoding: Set by libavcodec.
  42. */
  43. enum SampleFormat sample_fmt;  ///< sample format
  44. /* The following data should not be initialized. */
  45. /**
  46. * Samples per packet, initialized when calling ‘init‘.
  47. */
  48. int frame_size;
  49. int frame_number;   ///< audio or video frame number
  50. ......
  51. char codec_name[32];
  52. enum AVMediaType codec_type; /* see AVMEDIA_TYPE_xxx */
  53. enum CodecID codec_id; /* see CODEC_ID_xxx */
  54. /**
  55. * fourcc (LSB first, so "ABCD" -> (‘D‘<<24) + (‘C‘<<16) + (‘B‘<<8) + ‘A‘).
  56. * This is used to work around some encoder bugs.
  57. * A demuxer should set this to what is stored in the field used to identify the codec.
  58. * If there are multiple such fields in a container then the demuxer should choose the one
  59. * which maximizes the information about the used codec.
  60. * If the codec tag field in a container is larger then 32 bits then the demuxer should
  61. * remap the longer ID to 32 bits with a table or other structure. Alternatively a new
  62. * extra_codec_tag + size could be added but for this a clear advantage must be demonstrated
  63. * first.
  64. * - encoding: Set by user, if not then the default based on codec_id will be used.
  65. * - decoding: Set by user, will be converted to uppercase by libavcodec during init.
  66. */
  67. unsigned int codec_tag;
  68. ......
  69. /**
  70. * Size of the frame reordering buffer in the decoder.
  71. * For MPEG-2 it is 1 IPB or 0 low delay IP.
  72. * - encoding: Set by libavcodec.
  73. * - decoding: Set by libavcodec.
  74. */
  75. int has_b_frames;
  76. /**
  77. * number of bytes per packet if constant and known or 0
  78. * Used by some WAV based audio codecs.
  79. */
  80. int block_align;
  81. ......
  82. /**
  83. * bits per sample/pixel from the demuxer (needed for huffyuv).
  84. * - encoding: Set by libavcodec.
  85. * - decoding: Set by user.
  86. */
  87. int bits_per_coded_sample;
  88. ......
  89. } AVCodecContext;

如果是单纯使用libavcodec,这部分信息需要调用者进行初始化;如果是使用整个FFMPEG库,这部分信息在调用
avformat_open_input和avformat_find_stream_info的过程中根据文件的头信息及媒体流内的头部信息完成初始
化。其中几个主要域的释义如下:

  1. extradata/extradata_size:
    这个buffer中存放了解码器可能会用到的额外信息,在av_read_frame中填充。一般来说,首先,某种具体格式的demuxer在读取格式头
    信息的时候会填充extradata,其次,如果demuxer没有做这个事情,比如可能在头部压根儿就没有相关的编解码信息,则相应的parser会继
    续从已经解复用出来的媒体流中继续寻找。在没有找到任何额外信息的情况下,这个buffer指针为空。
  2. time_base:编解码器的时间基准,实际上就是视频的帧率(或场率)。
  3. width/height:视频的宽和高。
  4. sample_rate/channels:音频的采样率和信道数目。
  5. sample_fmt: 音频的原始采样格式。
  6. codec_name/codec_type/codec_id/codec_tag:编解码器的信息。

2、AVStream  该结构体描述一个媒体流

[cpp] view plaincopy

  1. typedef struct AVStream {
  2. int index;    /**< stream index in AVFormatContext */
  3. int id;       /**< format-specific stream ID */
  4. AVCodecContext *codec; /**< codec context */
  5. /**
  6. * Real base framerate of the stream.
  7. * This is the lowest framerate with which all timestamps can be
  8. * represented accurately (it is the least common multiple of all
  9. * framerates in the stream). Note, this value is just a guess!
  10. * For example, if the time base is 1/90000 and all frames have either
  11. * approximately 3600 or 1800 timer ticks, then r_frame_rate will be 50/1.
  12. */
  13. AVRational r_frame_rate;
  14. ......
  15. /**
  16. * This is the fundamental unit of time (in seconds) in terms
  17. * of which frame timestamps are represented. For fixed-fps content,
  18. * time base should be 1/framerate and timestamp increments should be 1.
  19. */
  20. AVRational time_base;
  21. ......
  22. /**
  23. * Decoding: pts of the first frame of the stream, in stream time base.
  24. * Only set this if you are absolutely 100% sure that the value you set
  25. * it to really is the pts of the first frame.
  26. * This may be undefined (AV_NOPTS_VALUE).
  27. * @note The ASF header does NOT contain a correct start_time the ASF
  28. * demuxer must NOT set this.
  29. */
  30. int64_t start_time;
  31. /**
  32. * Decoding: duration of the stream, in stream time base.
  33. * If a source file does not specify a duration, but does specify
  34. * a bitrate, this value will be estimated from bitrate and file size.
  35. */
  36. int64_t duration;
  37. #if LIBAVFORMAT_VERSION_INT < (53<<16)
  38. char language[4]; /** ISO 639-2/B 3-letter language code (empty string if undefined) */
  39. #endif
  40. /* av_read_frame() support */
  41. enum AVStreamParseType need_parsing;
  42. struct AVCodecParserContext *parser;
  43. ......
  44. /* av_seek_frame() support */
  45. AVIndexEntry *index_entries; /**< Only used if the format does not
  46. support seeking natively. */
  47. int nb_index_entries;
  48. unsigned int index_entries_allocated_size;
  49. int64_t nb_frames;                 ///< number of frames in this stream if known or 0
  50. ......
  51. /**
  52. * Average framerate
  53. */
  54. AVRational avg_frame_rate;
  55. ......
  56. } AVStream;

主要域的释义如下,其中大部分域的值可以由avformat_open_input根据文件头的信息确定,缺少的信息需要通过调用avformat_find_stream_info读帧及软解码进一步获取:

  1. index/id:index对应流的索引,这个数字是自动生成的,根据index可以从AVFormatContext::streams表中索引到该流;而id则是流的标识,依赖于具体的容器格式。比如对于MPEG TS格式,id就是pid。
  2. time_base:流的时间基准,是一个实数,该流中媒体数据的pts和dts都将以这个时间基准为粒度。通常,使用av_rescale/av_rescale_q可以实现不同时间基准的转换。
  3. start_time:流的起始时间,以流的时间基准为单位,通常是该流中第一个帧的pts。
  4. duration:流的总时间,以流的时间基准为单位。
  5. need_parsing:对该流parsing过程的控制域。
  6. nb_frames:流内的帧数目。
  7. r_frame_rate/framerate/avg_frame_rate:帧率相关。
  8. codec:指向该流对应的AVCodecContext结构,调用avformat_open_input时生成。
  9. parser:指向该流对应的AVCodecParserContext结构,调用avformat_find_stream_info时生成。

3、AVFormatContext,这个结构体描述了一个媒体文件或媒体流的构成和基本信息

[java] view plaincopy

  1. typedef struct AVFormatContext {
  2. const AVClass *av_class; /**< Set by avformat_alloc_context. */
  3. /* Can only be iformat or oformat, not both at the same time. */
  4. struct AVInputFormat *iformat;
  5. struct AVOutputFormat *oformat;
  6. void *priv_data;
  7. ByteIOContext *pb;
  8. unsigned int nb_streams;
  9. AVStream *streams[MAX_STREAMS];
  10. char filename[1024]; /**< input or output filename */
  11. /* stream info */
  12. int64_t timestamp;
  13. #if LIBAVFORMAT_VERSION_INT < (53<<16)
  14. char title[512];
  15. char author[512];
  16. char copyright[512];
  17. char comment[512];
  18. char album[512];
  19. int year;  /**< ID3 year, 0 if none */
  20. int track; /**< track number, 0 if none */
  21. char genre[32]; /**< ID3 genre */
  22. #endif
  23. int ctx_flags; /**< Format-specific flags, see AVFMTCTX_xx */
  24. /* private data for pts handling (do not modify directly). */
  25. /** This buffer is only needed when packets were already buffered but
  26. not decoded, for example to get the codec parameters in MPEG
  27. streams. */
  28. struct AVPacketList *packet_buffer;
  29. /** Decoding: position of the first frame of the component, in
  30. AV_TIME_BASE fractional seconds. NEVER set this value directly:
  31. It is deduced from the AVStream values.  */
  32. int64_t start_time;
  33. /** Decoding: duration of the stream, in AV_TIME_BASE fractional
  34. seconds. Only set this value if you know none of the individual stream
  35. durations and also dont set any of them. This is deduced from the
  36. AVStream values if not set.  */
  37. int64_t duration;
  38. /** decoding: total file size, 0 if unknown */
  39. int64_t file_size;
  40. /** Decoding: total stream bitrate in bit/s, 0 if not
  41. available. Never set it directly if the file_size and the
  42. duration are known as FFmpeg can compute it automatically. */
  43. int bit_rate;
  44. /* av_read_frame() support */
  45. AVStream *cur_st;
  46. #if LIBAVFORMAT_VERSION_INT < (53<<16)
  47. const uint8_t *cur_ptr_deprecated;
  48. int cur_len_deprecated;
  49. AVPacket cur_pkt_deprecated;
  50. #endif
  51. /* av_seek_frame() support */
  52. int64_t data_offset; /** offset of the first packet */
  53. int index_built;
  54. int mux_rate;
  55. unsigned int packet_size;
  56. int preload;
  57. int max_delay;
  58. #define AVFMT_NOOUTPUTLOOP -1
  59. #define AVFMT_INFINITEOUTPUTLOOP 0
  60. /** number of times to loop output in formats that support it */
  61. int loop_output;
  62. int flags;
  63. #define AVFMT_FLAG_GENPTS       0x0001 ///< Generate missing pts even if it requires parsing future frames.
  64. #define AVFMT_FLAG_IGNIDX       0x0002 ///< Ignore index.
  65. #define AVFMT_FLAG_NONBLOCK     0x0004 ///< Do not block when reading packets from input.
  66. #define AVFMT_FLAG_IGNDTS       0x0008 ///< Ignore DTS on frames that contain both DTS & PTS
  67. #define AVFMT_FLAG_NOFILLIN     0x0010 ///< Do not infer any values from other values, just return what is stored in the container
  68. #define AVFMT_FLAG_NOPARSE      0x0020 ///< Do not use AVParsers, you also must set AVFMT_FLAG_NOFILLIN as the fillin code works on frames and no parsing -> no frames. Also seeking to frames can not work if parsing to find frame boundaries has been disabled
  69. #define AVFMT_FLAG_RTP_HINT     0x0040 ///< Add RTP hinting to the output file
  70. int loop_input;
  71. /** decoding: size of data to probe; encoding: unused. */
  72. unsigned int probesize;
  73. /**
  74. * Maximum time (in AV_TIME_BASE units) during which the input should
  75. * be analyzed in avformat_find_stream_info().
  76. */
  77. int max_analyze_duration;
  78. const uint8_t *key;
  79. int keylen;
  80. unsigned int nb_programs;
  81. AVProgram **programs;
  82. /**
  83. * Forced video codec_id.
  84. * Demuxing: Set by user.
  85. */
  86. enum CodecID video_codec_id;
  87. /**
  88. * Forced audio codec_id.
  89. * Demuxing: Set by user.
  90. */
  91. enum CodecID audio_codec_id;
  92. /**
  93. * Forced subtitle codec_id.
  94. * Demuxing: Set by user.
  95. */
  96. enum CodecID subtitle_codec_id;
  97. /**
  98. * Maximum amount of memory in bytes to use for the index of each stream.
  99. * If the index exceeds this size, entries will be discarded as
  100. * needed to maintain a smaller size. This can lead to slower or less
  101. * accurate seeking (depends on demuxer).
  102. * Demuxers for which a full in-memory index is mandatory will ignore
  103. * this.
  104. * muxing  : unused
  105. * demuxing: set by user
  106. */
  107. unsigned int max_index_size;
  108. /**
  109. * Maximum amount of memory in bytes to use for buffering frames
  110. * obtained from realtime capture devices.
  111. */
  112. unsigned int max_picture_buffer;
  113. unsigned int nb_chapters;
  114. AVChapter **chapters;
  115. /**
  116. * Flags to enable debugging.
  117. */
  118. int debug;
  119. #define FF_FDEBUG_TS        0x0001
  120. /**
  121. * Raw packets from the demuxer, prior to parsing and decoding.
  122. * This buffer is used for buffering packets until the codec can
  123. * be identified, as parsing cannot be done without knowing the
  124. * codec.
  125. */
  126. struct AVPacketList *raw_packet_buffer;
  127. struct AVPacketList *raw_packet_buffer_end;
  128. struct AVPacketList *packet_buffer_end;
  129. AVMetadata *metadata;
  130. /**
  131. * Remaining size available for raw_packet_buffer, in bytes.
  132. * NOT PART OF PUBLIC API
  133. */
  134. #define RAW_PACKET_BUFFER_SIZE 2500000
  135. int raw_packet_buffer_remaining_size;
  136. /**
  137. * Start time of the stream in real world time, in microseconds
  138. * since the unix epoch (00:00 1st January 1970). That is, pts=0
  139. * in the stream was captured at this real world time.
  140. * - encoding: Set by user.
  141. * - decoding: Unused.
  142. */
  143. int64_t start_time_realtime;
  144. } AVFormatContext;

这是FFMpeg中最为基本的一个结构,是其他所有结构的根,是一个多媒体文件或流的根本抽象。其中:

  • nb_streams和streams所表示的AVStream结构指针数组包含了所有内嵌媒体流的描述;
  • iformat和oformat指向对应的demuxer和muxer指针;
  • pb则指向一个控制底层数据读写的ByteIOContext结构。
  • start_time和duration是从streams数组的各个AVStream中推断出的多媒体文件的起始时间和长度,以微妙为单位。

通常,这个结构由avformat_open_input在内部创建并以缺省值初始化部分成员。但是,如果调用者希望自己创建该结构,则需要显式为该结构的一些成员置缺省值——如果没有缺省值的话,会导致之后的动作产生异常。以下成员需要被关注:

  • probesize
  • mux_rate
  • packet_size
  • flags
  • max_analyze_duration
  • key
  • max_index_size
  • max_picture_buffer
  • max_delay

4、AVPacket

[cpp] view plaincopy

  1. typedef struct AVPacket {
  2. /**
  3. * Presentation timestamp in AVStream->time_base units; the time at which
  4. * the decompressed packet will be presented to the user.
  5. * Can be AV_NOPTS_VALUE if it is not stored in the file.
  6. * pts MUST be larger or equal to dts as presentation cannot happen before
  7. * decompression, unless one wants to view hex dumps. Some formats misuse
  8. * the terms dts and pts/cts to mean something different. Such timestamps
  9. * must be converted to true pts/dts before they are stored in AVPacket.
  10. */
  11. int64_t pts;
  12. /**
  13. * Decompression timestamp in AVStream->time_base units; the time at which
  14. * the packet is decompressed.
  15. * Can be AV_NOPTS_VALUE if it is not stored in the file.
  16. */
  17. int64_t dts;
  18. uint8_t *data;
  19. int   size;
  20. int   stream_index;
  21. int   flags;
  22. /**
  23. * Duration of this packet in AVStream->time_base units, 0 if unknown.
  24. * Equals next_pts - this_pts in presentation order.
  25. */
  26. int   duration;
  27. void  (*destruct)(struct AVPacket *);
  28. void  *priv;
  29. int64_t pos;                            ///< byte position in stream, -1 if unknown
  30. /**
  31. * Time difference in AVStream->time_base units from the pts of this
  32. * packet to the point at which the output from the decoder has converged
  33. * independent from the availability of previous frames. That is, the
  34. * frames are virtually identical no matter if decoding started from
  35. * the very first frame or from this keyframe.
  36. * Is AV_NOPTS_VALUE if unknown.
  37. * This field is not the display duration of the current packet.
  38. *
  39. * The purpose of this field is to allow seeking in streams that have no
  40. * keyframes in the conventional sense. It corresponds to the
  41. * recovery point SEI in H.264 and match_time_delta in NUT. It is also
  42. * essential for some types of subtitle streams to ensure that all
  43. * subtitles are correctly displayed after seeking.
  44. */
  45. int64_t convergence_duration;
  46. } AVPacket;

FFMPEG使用AVPacket来暂存媒体数据包及附加信息(解码时间戳、显示时间戳、时长等),这样的媒体数据包所承载的往往不是原始格式的音视频数据,而是以某种方式编码后的数据,编码信息由对应的媒体流结构AVStream给出。AVPacket包含以下数据域:

  • dts表示解码时间戳,pts表示显示时间戳,它们的单位是所属媒体流的时间基准。
  • stream_index给出所属媒体流的索引;
  • data为数据缓冲区指针,size为长度;
  • duration为数据的时长,也是以所属媒体流的时间基准为单位;
  • pos表示该数据在媒体流中的字节偏移量;
  • destruct为用于释放数据缓冲区的函数指针;
  • flags为标志域,其中,最低为置1表示该数据是一个关键帧。

AVPacket结构本身只是个容器,它使用data成员引用实际的数据缓冲区。这个缓冲区的管理方式有两种,其一是通过调用av_new_packet
直接创建缓冲区,其二是引用已经存在的缓冲区。缓冲区的释放通过调用av_free_packet实现,其内部实现也采用了两种不同的释放方式,第一种方
式是调用AVPacket的destruct函数,这个destruct函数可能是缺省的av_destruct_packet,对应
av_new_packet或av_dup_packet创建的缓冲区,也可能是某个自定义的释放函数,表示缓冲区的提供者希望使用者在结束缓冲区的时候
按照提供者期望的方式将其释放,第二种方式是仅仅将data和size的值清0,这种情况下往往是引用了一个已经存在的缓冲区,AVPacket的
destruct指针为空。

在使用AVPacket时,对于缓冲区的提供者,必须注意通过设置destruct函数指针指定正确的释放方式,如果缓冲区提供者打算自己释放缓冲区,则
切记将destruct置空;而对于缓冲区的使用者,务必在使用结束时调用av_free_packet释放缓冲区(虽然释放操作可能只是一个假动作)。
如果某个使用者打算较长时间内占用一个AVPacket——比如不打算在函数返回之前释放它——最好调用av_dup_packet进行缓冲区的克隆,将
其转化为自有分配的缓冲区,以免对缓冲区的不当占用造成异常错误。av_dup_packet会为destruct指针为空的AVPacket新建一个缓
冲区,然后将原缓冲区的数据拷贝至新缓冲区,置data的值为新缓冲区的地址,同时设destruct指针为av_destruct_packet。

三、时间信息 /  多媒体同步

时间信息用于实现多媒体同步。

同步的目的在于展示多媒体信息时,能够保持媒体对象之间固有的时间关系。同步有两类,一类是流内同步,其主要任务是保证单个媒体流内的时间关系,以满足感
知要求,如按照规定的帧率播放一段视频;另一类是流间同步,主要任务是保证不同媒体流之间的时间关系,如音频和视频之间的关系(lipsync)。

对于固定速率的媒体,如固定帧率的视频或固定比特率的音频,可以将时间信息(帧率或比特率)置于文件首部(header),如AVI的hdrl
List、MP4的moov box
,还有一种相对复杂的方案是将时间信息嵌入媒体流的内部,如MPEG TS和Real video,这种方案可以处理变速率的媒体,亦可有效避免同步过程中的时间漂移。

FFMPEG会为每一个数据包打上时间标签,以更有效地支持上层应用的同步机制。时间标签有两种,一种是DTS,称为解码时间标签,另一种是PTS,称为
显示时间标签。对于声音来说 ,这两个时间标签是相同的,但对于某些视频编码格式,由于采用了双向预测技术,会造成DTS和PTS的不一致。

无双向预测帧的情况:

图像类型: I   P   P   P   P   P   P ...  I   P   P
DTS:     0   1   2   3   4   5   6...  100 101 102
PTS:     0   1   2   3   4   5   6...  100 101 102

有双向预测帧的情况:

图像类型: I   P   B   B   P   B   B ...  I   P   B
DTS:     0   1   2   3   4   5   6 ...  100 101 102
PTS:     0   3   1   2   6   4   5 ...  100 104 102

对于存在双向预测帧的情况,通常要求解码器对图像重排序,以保证输出的图像顺序为显示顺序:

解码器输入:I   P   B   B   P   B   B
 (DTS)     0   1   2   3   4   5   6
 (PTS)     0   3   1   2   6   4   5
解码器输出:X   I   B   B   P   B   B   P
 (PTS)     X   0   1   2   3   4   5   6

时间信息的获取:

通过调用avformat_find_stream_info,多媒体应用可以从AVFormatContext对象中拿到媒体文件的时间信息:主要是总 时间长度和开始时间,此外还有与时间信息相关的比特率和文件大小。其中时间信息的单位是AV_TIME_BASE:微秒。

时间: 2024-10-10 06:12:49

FFmpeg基础一的相关文章

FFmpeg基础库编程开发学习笔记——视频常见格式

声明一下:这些关于ffmpeg的文章仅仅是用于记录我的学习历程和以便于以后查阅,文章中的一些文字可能是直接摘自于其它文章.书籍或者文献,学习ffmpeg相关知识是为了使用在Android上,我也才是刚開始接触学习,如有不正确之处还请指出. 视频格式能够分为适合本地播放的本地影像视频和适合在网络中播放的网络流媒体影像视频两大类.虽然后者在播放的稳定性和播放画面质量上可能没有前者优秀.但网络流媒体影像视频的广泛传播性使之正被广泛应用于视频点播.网络演示.远程教育.网络视频广告等等互联网信息服务领域.

FFmpeg基础知识之————H264编码profile &amp; level控制

H.264有四种画质级别,分别是baseline, extended, main, high: 1.Baseline Profile:基本画质.支持I/P 帧,只支持无交错(Progressive)和CAVLC: 2.Extended profile:进阶画质.支持I/P/B/SP/SI 帧,只支持无交错(Progressive)和CAVLC:(用的少) 3.Main profile:主流画质.提供I/P/B 帧,支持无交错(Progressive)和交错(Interlaced), 也支持CAV

ffmpeg基础

背景知识ffmpeg是一款领先的流媒体处理框架,支持编码,解码,转码等功能并可以在linux, Mac OS X, Microsoft Windows编译运行,用它做播放器的有:ffplay,射手播放器,暴风影音,QQ影音,用它做转码的有:格式工厂,总之:ffmpeg功能十分强大.视音频编码技术基础>>>生活中的视音频技术我们日常生活中看到的视频有不同后缀如:avi,rmvb,mp4,flv,mkv等等,这些后缀的格式就是视频的封装格式(把音频和视频打包成一个文件的规范).文件的后缀看不

FFMPEG基础库编程开发学习笔记——FFMPEG概述

声明一下:这些关于ffmpeg的文章只是用于记录我的学习历程和以便于以后查阅,文章中的一些文字可能是直接摘自于其他文章.书籍或者文献,学习ffmpeg相关知识是为了使用在Android上,我也才是刚开始接触学习,如有不对之处还请指出. 1.FFMPEG简介 Open-source multimedia library,遵从GPL/LGPL协议,ffmpeg只是一个商标,它的所有权属于ffmpeg org.由Fabrice Bellard(法国著名程序员 Born in1972)于2000年发起创

FFmpeg基础库编程开发学习笔记——音频常见格式及字幕格式

声明一下:这些关于ffmpeg的文章仅仅是用于记录我的学习历程和以便于以后查阅,文章中的一些文字可能是直接摘自于其它文章.书籍或者文献,学习ffmpeg相关知识是为了使用在Android上,我也才是刚開始接触学习,如有不正确之处还请指出. 音频格式是指要在计算机内播放或是处理音频文件,也就是要对声音文件进行数.模转换,这个过程相同由採样和量化构成.人耳所能听到的声音.最低的频率是从20HZ起一直到最高频率20KHZ.20KHZ以上人耳是听不到的,因此音频文件格式的最大带宽是20KHz,故而採样速

ffmpeg基本用法

FFmpeg FFmpeg 基本用法 本课要解决的问题 1.FFmpeg的转码流程是什么? 2.常见的视频格式包含哪些内容吗? 3.如何把这些内容从视频文件中抽取出来? 4.如何从一种格式转换为另一种格式? 5.如何放大和缩小视频? 6.如何旋转,翻转,填充,裁剪,模糊,锐化视频? 7.如何给视频加logo,删除logo? 8.如何给视频加文本,动态文本? 9.如何处理图片? 10.如何录像,添加动态logo,截图,马赛克视频? 第一部分 基础 术语 容器(Container) 容器就是一种文件

转:ffmpeg基本用法

FFmpeg FFmpeg 基本用法 本课要解决的问题 1.FFmpeg的转码流程是什么? 2.常见的视频格式包含哪些内容吗? 3.如何把这些内容从视频文件中抽取出来? 4.如何从一种格式转换为另一种格式? 5.如何放大和缩小视频? 6.如何旋转,翻转,填充,裁剪,模糊,锐化视频? 7.如何给视频加logo,删除logo? 8.如何给视频加文本,动态文本? 9.如何处理图片? 10.如何录像,添加动态logo,截图,马赛克视频? 第一部分 基础 术语 容器(Container) 容器就是一种文件

黄聪:ffmpeg基本用法(转)

FFmpeg FFmpeg 基本用法 本课要解决的问题 1.FFmpeg的转码流程是什么? 2.常见的视频格式包含哪些内容吗? 3.如何把这些内容从视频文件中抽取出来? 4.如何从一种格式转换为另一种格式? 5.如何放大和缩小视频? 6.如何旋转,翻转,填充,裁剪,模糊,锐化视频? 7.如何给视频加logo,删除logo? 8.如何给视频加文本,动态文本? 9.如何处理图片? 10.如何录像,添加动态logo,截图,马赛克视频? 第一部分 基础 术语 容器(Container) 容器就是一种文件

ffmpeg强化一:编解码过程,基本用法

1  术语: 什么是影片?其实就是一组(很多张)图片,时间间隔很小的连续展示出来,人们就觉得画面中的人物在动,这就是影片.那电影的实质就是N多张图片的集合.那 每张图片和帧又有什么关系呢?事实上,如果一部影片里面的图片,我们原封不动的全部存起来,空间会很大很大很大,但是如果通过一定的算法(这里不讲相关算 法),把每一张图片压缩(编码_encode)一下,变成 帧.再把帧连起来变成流,再把不同的流放到某个容器里面,这就是我们平常看见的电影文件了,文件 碟中谍4.H264.ACC.mkv,他为什么要