音视频处理之编码介绍20180224

一、视频编码数据

1.概述

视频编码的主要作用是将视频像素数据(RGB,YUV等)压缩成为视频码流,从而降低视频的数据量。如果视频不经过压缩编码的话,体积通常是非常大的,一部电影可能就要上百G的空间。视频编码是视音频技术中最重要的技术之一。视频码流的数据量占了视音频总数据量的绝大部分。高效率的视频编码在同等的码率下,可以获得更高的视频质量。

视频编码的简单原理可以参考:视频压缩编码和音频压缩编码的基本原理

注:视频编码技术在整个视音频技术中应该是最复杂的技术。如果没有基础的话,可以先买一些书看一下原理,比如说《现代电视原理》《数字电视广播原理与应用》(本科的课本)中的部分章节。

主要视频编码一览


名称


推出机构


推出时间


目前使用领域


HEVC(H.265)


MPEG/ITU-T


2013


研发中


H.264


MPEG/ITU-T


2003


各个领域


MPEG4


MPEG


2001


不温不火


MPEG2


MPEG


1994


数字电视


VP9


Google


2013


研发中


VP8


Google


2008


不普及


VC-1


Microsoft Inc.


2006


微软平台

由表可见,有两种视频编码方案是最新推出的:VP9和HEVC。目前这两种方案都处于研发阶段,还没有到达实用的程度。当前使用最多的视频编码方案就是H.264。

2.视频编码分析工具

Elecard Stream Eye查看视频编码格式(也叫码流分析工具,可分析h264),如下图:

红色的表示I帧,蓝色的表示P帧,绿色的表示B帧,方块表示宏块的划分方式,划分为16x16的小块,每块都有不同的类型(用不同的颜色标识)

左侧坐标表示数据量

I帧不依赖其他的帧,只压缩当前画面的数据。

P帧只会存和红色框(运动矢量)不一样的信息,和前面I帧不一样的信息。

B帧还会存和绿色框(运动矢量,和后面不一样的)不一样的信息,会参考前后的帧

3.编码标准

3.1. 主流编码标准

H.264仅仅是一个编码标准,而不是一个具体的编码器,H.264只是给编码器的实现提供参照用的。

基于H.264标准的编码器还是很多的,究竟孰优孰劣?可参考:MSU出品的 H.264编码器比较(2011.5)

在学习视频编码的时候,可能会用到各种编码器(实际上就是一个exe文件),他们常用的编码命令可以参考:各种视频编码器的命令行格式

学习H.264最标准的源代码,就是其官方标准JM了。但是要注意,JM速度非常的慢,是无法用于实际的:H.264参考软件JM12.2RC代码详细流程

实际中使用最多的就是x264了,性能强悍(超过了很多商业编码器),而且开源。其基本教程网上极多,不再赘述。编码时候可参考:x264编码指南——码率控制。编码后统计值的含义:X264输出的统计值的含义(X264 Stats Output)

Google推出的VP8属于和H.264同一时代的标准。总体而言,VP8比H.264要稍微差一点。有一篇写的很好的VP8的介绍文章:深入了解 VP8。除了在技术领域,VP8和H.264在专利等方面也是打的不可开交,可参考文章:WebM(VP8) vs H.264

此外,我国还推出了自己的国产标准AVS,性能也不错,但目前比H.264还是要稍微逊色一点。不过感觉我国在视频编解码领域还算比较先进的,可参考:视频编码国家标准AVS与H.264的比较(节选)

近期又推出了AVS新一代的版本AVS+,具体的性能测试还没看过。不过据说AVS+得到了国家政策上非常强力的支持。

3.2. 下一代编码标准

下一代的编解码标准就要数HEVC和VP9了。VP9是Google继VP8之后推出的新一代标准。VP9和HEVC相比,要稍微逊色一些。它们的对比可参考:(1)HEVC与VP9编码效率对比 (2)HEVC,VP9,x264性能对比

HEVC在未来拥有很多大的优势,可参考:HEVC将会取代H.264的原因

学习HEVC最标准的源代码,就是其官方标准HM了。其速度比H.264的官方标准代码又慢了一大截,使用可参考:HEVC学习—— HM的使用

未来实际使用的HEVC开源编码器很有可能是x265,目前该项目还处于发展阶段,可参考:x265(HEVC编码器,基于x264)介绍。x265的使用可以参考:HEVC(H.265)标准的编码器(x265,DivX265)试用

主流以及下一代编码标准之间的比较可以参考文章:视频编码方案之间的比较(HEVC,H.264,MPEG2等)

此外,在码率一定的情况下,几种编码标准的比较可参考:限制码率的视频编码标准比较(包括MPEG-2,H.263, MPEG-4,以及 H.264)

结果大致是这样的:

HEVC > VP9 > H.264> VP8 > MPEG4 > H.263 > MPEG2。

截了一些图,可以比较直观的了解各种编码标准:

HEVC码流简析:HEVC码流简单分析

H.264码流简析:H.264简单码流分析

MPEG2码流简析:MPEG2简单码流分析

以上简析使用的工具:视频码流分析工具

雷神做的小工具:  H.264码流分析器

4.H264格式简介

数据由大小不固定的NALU构成

最常见的情况下,1个NALU存储了1帧画面的压缩编码后的数据。

参考:视音频数据处理入门:H.264视频码流解析

二、音频编码数据

1.概述

音频编码的主要作用是将音频采样数据(PCM等)压缩成为音频码流,从而降低音频的数据量。音频编码也是互联网视音频技术中一个重要的技术。但是一般情况下音频的数据量要远小于视频的数据量,因而即使使用稍微落后的音频编码标准,而导致音频数据量有所增加,也不会对视音频的总数据量产生太大的影响。高效率的音频编码在同等的码率下,可以获得更高的音质。

音频编码的简单原理可以参考:视频压缩编码和音频压缩编码的基本原理

主要音频编码一览


名称


推出机构


推出时间


目前使用领域


AAC


MPEG


1997


各个领域(新)


AC-3


Dolby Inc.


1992


电影


MP3


MPEG


1993


各个领域(旧)


WMA


Microsoft Inc.


1999


微软平台

由表可见,近年来并未推出全新的音频编码方案,可见音频编码技术已经基本可以满足人们的需要。音频编码技术近期绝大部分的改动都是在MP3的继任者——AAC的基础上完成的。

2.编码标准

这些编码标准之间的比较可以参考文章:音频编码方案之间音质比较(AAC,MP3,WMA等)

结果大致是这样的:

AAC+ > MP3PRO > AAC> RealAudio > WMA > MP3

AAC格式的介绍:AAC格式简介

AAC几种不同版本之间的对比:AAC规格(LC,HE,HEv2)及性能对比

AAC专利方面的介绍:AAC专利介绍

此外杜比数字的编码标准也比较流行,但是貌似比最新的AAC稍为逊色:AC-3技术综述

雷神做的小工具:AAC格式分析器

3.AAC格式简介

数据由大小不固定的ADTS构成

类似h264的地位,目前大多数都是使用aac格式

参考:视音频数据处理入门:AAC音频码流解析

三、参考的原文

http://blog.csdn.net/leixiaohua1020/article/details/18893769

原文地址:https://www.cnblogs.com/yuweifeng/p/8467830.html

时间: 2024-08-25 01:46:05

音视频处理之编码介绍20180224的相关文章

第六十篇、音视频采集硬编码(H264+ACC)

使用 AVCaptureSession进行实时采集音视频(YUV.),编码 通过AVCaptureVideoDataOutputSampleBufferDelegate获取到音视频buffer- 数据 分别对音视频原始数据进行编码 传输 ViewController // // ViewController.h // H264AACEncode // // Created by ZhangWen on 15/10/14. // Copyright ? 2015年 Zhangwen. All ri

音视频处理之编码原理20170905

关于音视频处理的介绍参考雷神的文章:http://blog.csdn.net/leixiaohua1020/article/details/18893769 在介绍各种编码标准之前,先来看看音视频编码的基本原理: 1.视频编码基本原理 (1)  视频信号的冗余信息 以记录数字视频的YUV分量格式为例,YUV分别代表亮度与两个色差信号.例如对于现有的PAL制电视系统,其亮度信号采样频率为13.5MHz:色度信号的频带通常为亮度信号的一半或更少,为6.75MHz或3.375MHz.以4:2:2的采样

常见的音视频封装和编码

常见的的音视频封装和编码格式是怎么样的? 封装格式的推出机构和领域? 封装格式数据结构是什么样的? 视频播放器原理 播放器在显示上,可以分为DirectShow框架的工具,比如VLC,mplayer:非DirectShow框架的工具,如暴风影音,potplayer 哪些工具可以查看音视频文件的信息? Elecard Format Analyer可以看出来数据是如何封装到一起的.

Android 音视频开发入门指南

最近收到很多网友通过邮件或者留言说想学习音视频开发,该如何入门,我今天专门写篇文章统一回复下吧. 音视频这块,目前的确没有比较系统的教程或者书籍,网上的博客文章也都是比较零散的,希望我后面能挤出时间整一个专题详细讲一讲--目前的话,我先给出一个大的方向性的学习指南,希望对初学者有所帮助. 我一直相信带着 "任务" 去学习和实践,效率会高很多,因此我列出了一系列音视频相关的 "开发任务",从简单到困难(当然,不一定非常严格和完美,部分任务先后可调整),大家在完成任务的

音视频直播服务平台总结

p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; text-align: center; font: 18.0px "PingFang SC Semibold"; color: #000000 } p.p2 { margin: 0.0px 0.0px 0.0px 0.0px; font: 11.0px Helvetica; color: #000000; min-height: 13.0px } p.p3 { margin: 0.0px 0.0px 0.0

即时通讯——详解音视频同步技术

转自:http://tieba.baidu.com/p/2138076570 摘要:针对网络传输中由于延迟.抖动.网络传输条件变化等因素引起的音视频不同步的问题,设计并实现了一种适应不同网络条件的音视频同步方案.利用音视频编码技术AMR-WB和H.264具有在复杂网络环境中速率可选择的特性,结合RTP时间戳和RTCP反馈检测QOS,通过控制音视频编码方式,实现了动态网络环境下的音视频同步方案.重点介绍了可靠网络环境和动态网络环境下同步算法的设计过程,并通过实际测试验证了此方案的可行性.结果表明,

Android IOS WebRTC 音视频开发总结(五七)-- 网络传输上的一种QoS方案

本文主要介绍一种QoS的解决方案,文章来自博客园RTC.Blacker,欢迎关注微信公众号blacker,更多详见www.rtc.help QoS出现的背景: 而当网络发生拥塞的时候,所有的数据流都有可能被丢弃:为满足用户对不同应用不同服务质量的要求,就需要网络能根据用户的要求分配和调度资源,对不同的数据流提供不同的服务质量: 1.对实时性强且重要的数据报文优先处理: 2.对于实时性不强的普通数据报文,提供较低的处理优先级,网络拥塞时甚至丢弃. 为了满足上述需求,QoS出现了,定义如下: QoS

音视频技术开发周刊 93期

『音视频技术开发周刊』由LiveVideoStack团队出品,专注在音视频技术领域,纵览相关技术领域的干货和新闻投稿,每周一期.点击『阅读原文』,浏览第93期内容,祝您阅读愉快. 架构 Nodejs+socket.io搭建WebRTC信令服务器 本文介绍了 Nodejs 的工作原理.Nodejs的安装与布署,以及如何使用 要sokcet.io 构建 WebRTC 信令消息服务器.socket.io 由于有房间的概念所以与WebRTC非常匹配,用它开发WebRTC信令服务器非常方便. 蔡锐涛:CG

Android IOS WebRTC 音视频开发总结(七)

前面写的一系列总结都是讲webrtc如何下载,编译,开发的,有些人可能有点云里雾里了,WEBRTC不是用来搞跨浏览器开发的吗,怎么我讲的这些跟浏览器扯不上任何关系,其实看看下面这个架构图,你就明白了(本系列文章转载请说明出处:http://www.cnblogs.com/lingyunhu). 我前面讲的这些内容都封装在browser里面了,如音视频的采集,编码,传输,回声消除,丢包重传.所以如果你想将这些功能集成到你的产品里面就必须理解这些东西. 如果你只想做基于浏览器的视频通话功能,上面这些