使用FFMPEG从MP4封装中提取视频流到.264文件 (转载)

命令行:

ffmpeg -i 20130312_133313.mp4 -codec copy -bsf: h264_mp4toannexb -f h264 20130312_133313.264

说明:

-i 20130312_133313.mp4 :是输入的MP4文件

-codec copy:从MP4封装中进行拷贝

-bsf: h264_mp4toannexb:从MP4拷贝到annexB封装

-f h264:采用h.264格式

20130312_133313.264:输出的文件名称

时间: 2024-10-25 20:56:50

使用FFMPEG从MP4封装中提取视频流到.264文件 (转载)的相关文章

dedecms中提取的zip压缩文件操作类zip.class.php

从织梦DeDeCMS中提取的zip压缩文件操作类,包含zip文件压缩.解压缩.添加文件到压缩包中等多个实用的函数,注释详细方便使用. 下载:dedecms中提取的zip压缩文件操作类zip.class.php 包含的函数和简单的使用方法: 1.函数get_List($zip_name) ,函数作用:获取zip文件中的文件列表.函数参数 $zip_name  zip文件名.返回值 文件列表数组. 2.函数Add($files,$compact),函数作用:增加文件到压缩文件.函数参数 $files

数据库镜像中成功收缩事务日志文件 (转载)

数据库镜像中成功收缩事务日志文件 数据库已经运行在数据库镜像的时候怎么收缩事务日志文件呢?? 我们有一个产品数据库发现事务日志文件已经到到了60GB,而数据库本身才30GB.需要收缩事务日志文件. 经过一个礼拜的观察,平均没有有1.5GB的日志,99%的日志是在晚上产生的,周末有16GB的日志,看来大部分是非工作时间批处理产生的. 我觉得收缩日志文件,怎么做呢??google来半天也没什么好的办法,大部分说是要切换到simple模式,重新构建数据库镜像数据库.这对产品环境影响比较大. 只有自己摸

[SimplePlayer] 1. 从视频文件中提取图像

在开始之前,我们需要了解视频文件的格式.视频文件的格式众多,无法三言两语就能详细分析其结构,尽管如此,ffmpeg却很好地提取了各类视频文件的共同特性,并对其进行了抽象描述. 视频文件格式,统称为container.它包含一个描述视频信息的头部,以及内含实际的音视频编码数据的packets.当然,这里的头部以及packet部分只是个抽象描述,实际的视频格式的描述信息可能不是存放在视频文件的起始位置,可能是由分散于视频文件的各个位置的多个部分组成:数据包有可能是由头部以及尾部进行分割的传统数据包形

[转]【流媒體】H264—MP4格式及在MP4文件中提取H264的SPS、PPS及码流

[流媒體]H264—MP4格式及在MP4文件中提取H264的SPS.PPS及码流 SkySeraph Apr 1st 2012  Email:[email protected].com 一.MP4格式基本概念 MP4格式对应标准MPEG-4标准(ISO/IEC14496) 二.MP4封装格式核心概念 1  MP4封装格式对应标准为 ISO/IEC 14496-12(信息技术 视听对象编码的第12部分: ISO 基本媒体文件格式/Information technology Coding of a

ffmpeg 从mp4上提取H264的nalu

转自http://blog.csdn.net/gavinr/article/details/7183499 1.获取数据 ffmpeg读取mp4中的H264数据,并不能直接得到NALU,文件中也没有储存0x00000001的分隔符.下面这张图为packet.data中的数据 从图中可以发现,packet中的数据起始处没有分隔符(0x00000001), 也不是0x65.0x67.0x68.0x41等字节,所以可以肯定这不是标准的nalu. 其实,前4个字0x000032ce表示的是nalu的长度

调用opencv相关函数,从视频流中提取出图片序列

/************************ @HJ 2017/3/30 参考http://blog.sina.com.cn/s/blog_4b0020f301010qcz.html修改的代码 @主要调用opencv相关函数,从视频流中提取出图片序列 @需要注意的问题: cvReleaseImage(&pImg)释放内存出错的两种情况:具体可以参考http://www.cnblogs.com/grandyang/p/4615036.html 1)从摄像头获取的图片不能被修改和释放,所以如果

【FFMpeg视频开发与应用基础】五、调用FFMpeg SDK封装音频和视频为视频文件

<FFMpeg视频开发与应用基础--使用FFMpeg工具与SDK>视频教程已经在"CSDN学院"上线,视频中包含了从0开始逐行代码实现FFMpeg视频开发的过程,欢迎观看!链接地址:FFMpeg视频开发与应用基础--使用FFMpeg工具与SDK 工程代码地址:FFmpeg_Tutorial 音频和视频的封装过程为解封装的逆过程,即将独立的音频数据和视频数据按照容器文件所规定的格式封装为一个完整的视频文件的过程.对于大多数消费者来说,视频封装的容器是大家最为熟悉的,因为它直接

H.264从SPS中提取视频宽高

H.264有两种封装模式: (1)annexb模式:传统模式,使用start code来分隔NAL, SPS和PPS是在ES流的头部: (2)mp4模式:没有start code,使用NALU长度(固定字节,通常为4个字节)来分隔NAL.AVCodecContext的extradata内部保存着分隔的字节数,SPS和PPS: 1. 找到SPS 视频的宽高保存在SPS中.那么提取宽高首先要找到SPS.annexb模式直接读取视频数据,根据NAL type找到SPS即可.mp4模式应该从extrad

[转载]用 FFMPEG 合并 MP4 视频

因为 ffmpeg 是支持切分 mp4 视频的,所以我就理所当然的以为 ffmpeg 是支持视频合并.直到今天同事找我问方法,才发现一直以为的方法是错误的, mp4 不支持直接 concate(丢人了...),赶紧补了一下能量,从网上抓来了多种实现. 注: 这里的 mp4 指的是网上最多见的 h264+aac mpeg4 容器的方式 1). ffmpeg + mpeg 这种是网上最常见的,基本思路是将 mp4 先转码为 mpeg 文件,mpeg是支持简单拼接的,然后再转回 mp4. ffmpeg