视频分辨率与帧数

  1080i格式,分辨率为1920×1080i/60Hz,行频为33.75kHz 
  720p格式,分辨率为1280×720p/60Hz,行频为45kHz 
  480P 格式 分辨率是720*480

  帧数就是在1秒钟时间里传输的图片的帧数,也可以理解为图形处理器每秒钟能够刷新几次,通常用fps(Frames Per Second)表示。每一帧都是静止的图象,快速连续地显示帧便形成了运动的假象。高的帧率可以得到更流畅、更逼真的动画。每秒钟帧数 (fps) 愈多,所显示的动作就会愈流畅。

  一般来说30fps是可以接受的,所以要避免动作不流畅的最低fps是30。除了30fps外,有些计算机视频格式,例如AVI,每秒只能提供15帧。我们之所以能够利用摄像头来看到连续不断的影像,是因为影像传感器不断摄取画面并传输到屏幕上来,当传输速度达到一定的水平时,人眼就无法辨别画面之间的时间间隙,所以大家可以看到连续动态的画面。

   分辨率:(Resalution)构成一个影象的象素总和,一般用水平象素个数x垂直象素个数来表示。分辨率越高,图象就越清晰,但所得的图象或文字越小。它和刷新频率的关系比较密切。刷新频率为85Hz时分辨率越高,则显示器的性能也越好。可以把分辨率划分为CGA,EGA,VGA,SVGA等几种;按照水平和垂直象素数目来区分,则可以分:320x200,640x480,800x600,1024x768,1280x1024,1600x1280等几种。

时间: 2024-10-04 13:33:43

视频分辨率与帧数的相关文章

Opencv:按帧数读取视频并保存图片

import cv2 videoFile = 'data/最强大脑.mp4' cap = cv2.VideoCapture(videoFile) frameNum = 0 while (cap.isOpened()): ret, frame = cap.read() frameNum = frameNum + 1 if frameNum % 2 == 0: # 调整帧数 cv2.imwrite('image/output/vieo1_' + str(frameNum) + ".jpg"

克服VR眩晕之帧数 提升UE4内容实时渲染效率

克服VR眩晕之帧数:提升UE4内容实时渲染效率 Li Wen Lei, HuNing 在 2015/10/29 23:00:31 | 新闻 Share on Facebook Share on Twitter Share on Google+ Share on LinkedIn VR已经成为了当今最火热的一个话题,带上头盔之后,从此进入一个奇妙的世界,在这里你不再是观众,你参与这个世界发生的每一件事件.整个世界从此与众不同.在赛道上飞驰,在战场上纵横     但是生理机制让我们的大脑在身体并没有

C#:获取视频某一帧的缩略图

读取方式:使用ffmpeg读取,所以需要先下载ffmpeg.网上资源有很多. 原理是通过ffmpeg执行一条命令获取视频某一帧的缩略图. 首先,需要获取视频的帧高度和帧宽度,这样获取的缩略图才不会变形. 获取视频的帧高度和帧宽度可以http://www.zhoumy.cn/?p=35通过查看. 获取到视频的帧高度和帧宽度后,还需要获取缩略图的高度和宽度,这是按比例缩放的. 比如你存放缩略图的区域的最大宽度和最大高度是100,缩略图的高度也应缩放到对应大小. 接下来通过执行一条命令就可以获取到视频

3D图片采集与展示(SurfaceView 自适应 Camera, 录制视频, 抽取帧)

      最近在做一个3D图片采集与展示. 主要功能为:自定义Camera(google 已经摈弃了Camera, 推荐使用Camera2,后续篇幅,我将会用Camera2取代Camera),围绕一个物体360度录制一个视频,然后在该视频抽取一定数量的帧,保存为图片存放.最后在一个Activity页面展示第一张图片,通过滑动或点击切换下一张图片,从而形成用图片展示的3D效果.该项目主要的目的是采集3D图片素材,然后上传到服务器处理,最终在用户客户端或网页端展示是通过OpenGL ES处理而来.

从一段视频中按帧提取图片

这里实现的是从一段视频中每10帧读取第10帧图片,代码如下: # -*- coding:utf-8 -*- #视频中按序列提取帧,获得训练数据 import cv2 import os video_src_path = "D:/mtcnn" video_save_path = "D:/mtcnn/mydata" videos = os.listdir(video_src_path) videos = filter(lambda x : x.endswith(&quo

第五十二篇、 OC获取视频的第一帧图片thumbnailImage

获取视频的第一帧图片 有时候我们拍摄完视频后,希望获取一张图片当作这个视频的介绍,这个图片thumbnailImage可以从视频的第一帧获取到. 我们的思路是先获取视频的URL,然后初始化一个MPMoviePlayerController做工具,利用MPMoviePlayerController来拿图片,看具体代码如下: - (void)imagePickerController:(UIImagePickerController *)picker didFinishPickingMediaWit

关于ffmpeg(libav)解码视频最后丢帧的问题

其实最初不是为了解决这个问题而来的,是Peter兄给我的提示解决另一个问题却让我误打误撞解决了另外一个问题之后也把这个隐藏了很久的bug找到(之前总是有一些特别短的视频产生不知所措还以为是视频素材本身有问题呢),今天真是收获颇丰啊,对libav的理解更深. 一直以来我的程序架构是让读一帧av_read_frame,然后去尝试根据packet的type类型分别去decode video或者audio,然而这样总是在视频的结尾会有许多帧丢失的问题,我找过avplay代码中似乎没找到我想象中的那种读p

[Unity3D]查看与设置游戏帧数FPS

FPS是衡量游戏性能的一个重要指标,Unity是跨平台的引擎工具,所以没有统一限定他的帧速率. 在PC平台,一般说来是越高越好,FPS越高,游戏越流畅. 在手机平台,普遍的流畅指标为60帧,能跑到60帧,就是非常流畅的体验了,再高的话一来差别很小,二来帧数太高,会耗费CPU和GPU,会导致发热和耗电量大. 1.UNITY3D设置帧数FPS的方法 3.5以后的版本,可以直接设置Application.targetFrameRate.直接修改脚本就可以了. using UnityEngine; us

ios 获得本地视频的帧数的截图

ios 本地视频文件截图,有的类已经deprecated,提供三个函数以供使用 + (UIImage*)getVideoThumbnailWithUrl:(NSURL*)videoUrl second:(CGFloat)second size:(CGSize)size { if (!videoUrl) { NSLog(@"WARNING:videoUrl为空"); return nil; } AVURLAsset *urlSet = [AVURLAsset assetWithURL:v