C#取视频某一帧图片

首先下载 ffmpeg http://ffmpeg.org/

注意一定要从官网下载,其他地方可以会有问题

解压后在 bin 目录下找到 ffmpeg.exe

用到的使命是

-i 视频地址 -ss 第几帧 -f image2 图片存放地址

用cmd试一下,首先切换到ffmpeg.exe所在目录,输入命令,回车

最后上C#代码

using (System.Diagnostics.Process process = new System.Diagnostics.Process()){
    process.StartInfo.FileName = @"D:\ffmpeg.exe";
    process.StartInfo.Arguments= @"-i D:\111.mp4 -ss 10 -f image2 D:\test\1.jpg";
    process.Start();}

原文地址:https://www.cnblogs.com/zhouyg2017/p/11691323.html

时间: 2024-10-10 17:13:17

C#取视频某一帧图片的相关文章

第五十二篇、 OC获取视频的第一帧图片thumbnailImage

获取视频的第一帧图片 有时候我们拍摄完视频后,希望获取一张图片当作这个视频的介绍,这个图片thumbnailImage可以从视频的第一帧获取到. 我们的思路是先获取视频的URL,然后初始化一个MPMoviePlayerController做工具,利用MPMoviePlayerController来拿图片,看具体代码如下: - (void)imagePickerController:(UIImagePickerController *)picker didFinishPickingMediaWit

获取视频的第一帧图片

+ (UIImage *)getFirstFrameOfVideoWithVideoURL:(NSURL *)videoURL { AVURLAsset *asset = [[AVURLAsset alloc] initWithURL:videoURL options:nil]; NSParameterAssert(asset); AVAssetImageGenerator *assetIG = [[AVAssetImageGenerator alloc] initWithAsset:asset

在Android中如何获取视频的第一帧图片并显示在一个ImageView中

String path  = Environment.getExternalStorageDirectory().getPath(); MediaMetadataRetriever media = new MediaMetadataRetriever(); media.setDataSource(path+"/123.rmvb"); Bitmap bitmap = media.getFrameAtTime(); image = (ImageView)this.findViewById(

视频直播:libx264编码一帧图片+live555搭建RTSP流媒体服务器

最近又复习了一下live555的源代码,并在VS2013下编译了视频直播程序. 从视频读取一帧后x264编码,用live555的RTSP传输流媒体. 效果清晰流畅(640*480+40帧每秒),很满意. 附上主要的cpp代码 /* H264FramedLiveSource.cpp By Chain_Gank */ #include <highgui.h> #include <cv.h> #include <stdio.h> #include <string.h&g

从一段视频中按帧提取图片

这里实现的是从一段视频中每10帧读取第10帧图片,代码如下: # -*- coding:utf-8 -*- #视频中按序列提取帧,获得训练数据 import cv2 import os video_src_path = "D:/mtcnn" video_save_path = "D:/mtcnn/mydata" videos = os.listdir(video_src_path) videos = filter(lambda x : x.endswith(&quo

视频直播首帧速度优化

直播在2016年是一个非常火热的领域,我也有幸在今年参与了新浪微博直播客户端的开发,在此分享一下关于直播开发的一些经验. 1.视频直播的基本原理 视频直播的过程大概由这么几个部分构成: 推流端 源服务器 CDN边缘节点 播放端 直播架构.jpg 整个直播流转的过程是:推流端将视频流推向源服务器,源服务器对视频流进行编码或者转存,CDN负责负载均衡与缓存,CDN节点从源服务器获取视频流,播放端再从CDN上把视频流拉下来. 2.不同的直播协议 HLSHLS全称是Http live stream,是苹

关于ffmpeg(libav)解码视频最后丢帧的问题

其实最初不是为了解决这个问题而来的,是Peter兄给我的提示解决另一个问题却让我误打误撞解决了另外一个问题之后也把这个隐藏了很久的bug找到(之前总是有一些特别短的视频产生不知所措还以为是视频素材本身有问题呢),今天真是收获颇丰啊,对libav的理解更深. 一直以来我的程序架构是让读一帧av_read_frame,然后去尝试根据packet的type类型分别去decode video或者audio,然而这样总是在视频的结尾会有许多帧丢失的问题,我找过avplay代码中似乎没找到我想象中的那种读p

怎么才能在EDIUS中输出静帧图片

很多时候,我们在编辑视频时会截取好看的或有意义的图片做成示意图等,使用EDIUS非线性编辑软件剪辑视频的小伙伴们也许要问了,这个问题在EDIUS中可操作么?答案是肯定的.下面,小编就来给大家分享EDIUS输出静帧图片的操作步骤. 查看更多内容请直接前往:http://www.ediuschina.com/xinshou/shuchu-jingzhentupian.html 方法一 使用快捷键“Ctrl+T”,可以将时间线标尺所在画面保存为图片. 需要注意的是,输出的EDIUS静帧图片默认格式是按

微信小程序------媒体组件(视频,音乐,图片)

今天主要是简单的讲一下小程序当中的媒体组件,媒体组件包括:视频,音乐,图片等. 先来看看效果图: 1:图片Image <!-- scaleToFill:不保持纵横比缩放图片,使图片的宽高完全拉伸至填满 image 元素 widthFix:宽度不变,高度自动变化,保持原图宽高比不变 aspectFill:保持纵横比缩放图片,只保证图片的短边能完全显示出来. 也就是说,图片通常只在水平或垂直方向是完整的,另一个方向将会发生截取. aspectFit: 保持纵横比缩放图片,使图片的长边能完全显示出来.