2019年终总结&小半年流媒体服务器开发经验总结

目录

  • 2019年终总结&小半年流媒体服务器开发经验总结

    • 19年开发小结

      • 流媒体服务框架设计
      • 登录服开发
      • ffmpeg音视频服务开发
      • 音视频控制
    • 流媒体服务开发小结
      • rtp处理
      • 视频的合成&音视频缓冲区
      • 音视频编码
    • 回顾19展望20

2019年终总结&小半年流媒体服务器开发经验总结



时间转瞬即逝,转眼间19年已经过去了,人愈来愈来老,却不见人心和物质的提升,期望2020年能有一个崭新的自己。

今年因为发展原因,从嵌入式跳槽做互联网后端了,干了一年突然转行,自己也很纠结这么做对不对,但归根结底我只是选择了做自己想做的事情,从事自己想做的工作罢了。

虽然过来后发现也不并算真正意义上的后端工作,用到的后端技术并不多,主要时间挣扎在了流媒体的开发,音视频的编解码,滤波、硬件加速、rtp、音视频格式(aac、pcm、h264)、另外主管选择了开源的ffmpeg库、这些七七八八的东西够你折磨了。。

19年开发小结

流媒体服务框架设计

基于公司项目需求设计流媒体服务器,考虑到扩展性,采用了主流的多进程模型便于后期做分布式,同时解耦业务层与音视频处理层,便于更替音视频处理方案。

登录服开发

基于公共协议栈,管理用户登录、连接音视频服务、用户数据缓存、用户出入音视频服务动态等、迎合docker特点、单独用户数据缓存存储用户数据。

ffmpeg音视频服务开发

主要包括音视频相关内容的开发,也是开发投入时间最长的服务,主要经历了以下过程。

1)、最初基于ffmpeg的h264软解实现服务demo.

2)、然后尝试基于英特尔vaapi硬件加速驱动做h264硬解,对解码视频帧做软件overlay滤波进行音视频合成,再做vaapi硬编码。
优点是此流程软件实现上会更为简洁快速,也比较稳定。
但是后面发现系统会时不时crash。从系统日志上没有找到相关日志,于是进行了长期的软件模块排除法检查问题原因,做了解码、解码+滤波、滤波+编码等单元模块组挂机测试,仍然无法找到系统crash问题原因。
同时也在微软的github仓库提交了bug/issue,但是回复较慢。

3)、起初怀疑是vaapi驱动问题,于是尝试使用英特尔qsv硬件加速驱动硬解,对解码视频帧做硬件overlay_qsv滤波进行音视频合成,再做qsv硬编码。
优点是音视频处理全交付于gpu处理,省下大片cpu时间。缺点是硬件帧上下文关系密切,做视频自动切换上,需要做更多软件处理,编码上略微复杂。
可惜系统crash问题依然存在。

4)、ffmpeg原生工具命令行测试系统crash问题,发现确实有这个问题,而且更换很多个ffmpeg版本都会出现,只是概率可能会有浮动:快的几分钟到几小时crash、慢的一星期可能不会出现,但是不改任何参数再次尝试依然可能crash.

5)、移植音视频服务从linux到windows系统下、经过长期测试windows下运行intel加速方案确实没有系统宕机问题了、同时因为登录服基于muduo库实现,移植复杂,改将登录服打包进docker容器运行。

6)、完善及优化音视频服务框架及功能。包括:添加适当rtp缓存解决公网环境udp包波动问题、添加音视频同步机制、增加相应业务功能接口。

7)、移植到微服务框架,进一步增强程序扩展性。

音视频控制

1、创建房间:单机能创建的房间数量是有限的,但是要控制画质流畅不丢帧,瓶颈在于视频合成流数量和硬件性能(核心数越多可以适当降低丢帧率,intel驱动性能瓶颈)、
可以堆音视频服务机器解决这个问题,但是体感性价比并不高。

2、直播房间的增、删、改、查。

3、多路流输入下、可指定流合成数量、或者、自动根据流数量合成。

4、 去除音频回音、单条流的音频开关。

5、 配置视频profile level、 获取帧率、丢包率等。

6、其他。

流媒体服务开发小结

rtp处理

rtp完全是自己解的,没有用ffmpeg的avformat库,这样我更便于管理网络处理部分。

需要注意的是udp在公网上可能存在网络抖动问题,服务端接收到的udp包不一定能按序到达,也可能存在丢包等问题,你需要开一块rtp缓存,按seq做最小堆。我直接用的golang的heap包实现的。

然后实际上也可以按相对时间戳来heap的compare,这样也方便你做音视频同步,记录第一个到达的rtp包时间戳、后续rtp的时间戳按timestamp的增量做时钟的换算,换算成一个浮点时间来排序。
例如 h264 90000的时钟 、 30的帧率 、 : 那么 3000时间戳增量 代表 3000 / 90000 = 33.33333ms

然后就是rtp时间的同步 : av_rtp_handler所有rtp包都带了我一个换算出来的相对时间戳的、 我只需要将音视频的包做一次最小堆插入、每次去取堆顶时间戳最小的rtp包即可、 是音频包就丢进音频解码器、视频包就丢进视频解码器。

视频的合成&音视频缓冲区

我想了很久音视频进行合成结构后发现有一个很重要的东西、那就是音视频帧的缓冲区、而且这个缓冲区真的很重要、它能做到以下效果:

1、控制帧率

2、解决多路流的音视频帧抖动问题

1、 通过一个定时器、你能很方便的控制帧率、例如隔33ms往合成器发送一组音视频帧进行合成即可。修改帧率你只需要更改定时器的种子值。

2、消抖、每路流到达的时间肯定是不稳定的、可能通道3一下子除了了5包数据、一下子来了10帧数据、而其他路还只有1到2帧或者没有、但是你要保持实时性肯定不能把所有帧全部保存下来、所以你必须控制每路的缓冲大小得把挤出来的非I帧删掉、注意是非I帧不然可能会花屏。

然后就是音视频合成、音频用amix、视频用overlay、

视频帧合成麻烦在qsv有一个硬件帧上下文、qsvframecontext每次做屏幕的自动切换、或者屏幕位置交换、需要重新生成filter、而你就需要费工夫去更新这个qsvframecontext 极为麻烦、后面想到的方法是设计一张ffmpeg filter输入的映射

就是在不该ffmpeg滤波器描述符的情况下、而是直接交换filter的输入位置。

一个草图将就下: 相当于 就是打乱正当的输入顺序、做一张映射、这样子不用更改filter的描述符即可做滤波器的切换,要便利极多!

音频合成没什么好说的、就是每路的输出可能不能包含自己的通道声音、不然可能存在回音、你只需要弄个set记录需要合成的流输入id的集合、合成的时候把自己的id去掉再合成就行了。

音视频编码

编码好像没什么重点东西、打包的时候打上个合适的时间戳即可。

回顾19展望20

今年其实挺累的、第一次一个人从零写了一整套流媒体服务、以及整个系统框架的搭建、最后也学习了主流后端框架、移植到了微服务框架上。虽然做了很多事但是收获也多多。希望未来能有更好的发展。

原文地址:https://www.cnblogs.com/ailumiyana/p/12159065.html

时间: 2024-10-09 20:15:39

2019年终总结&小半年流媒体服务器开发经验总结的相关文章

nginx+nginx-rtmp-module+ffmpeg搭建流媒体服务器

参照网址: [1]http://blog.csdn.net/redstarofsleep/article/details/45092147 [2]HLS介绍:http://www.cnblogs.com/haibindev/archive/2013/01/30/2880764.html 上面这两个流的地址分别是: 第一个就是推送的地址: RTMP推流地址: rtmp://serverIp:1935/myapp/test1 第二个是HTTP地址: HLS推流地址: http://serverIp:

[Linux]流媒体服务器概述

二.何为流媒体与流式传输? 2.1 流媒体 「流媒体」是指采用「流式传输」的方式在Internet播放的媒体格式,流媒体最大的特点就是「边下边播」,常用的流媒体格式有FLV(使用FLASH作为视频播放载体).TS等 2.2 流式传输 「流式传输」指通过网络传送流媒体的技术总称.流式传输分为「实时流式传输」与「顺序流式传输」.一般来说,如果视频为直播,即为实时流式传输.如果视频不是直播,文件通过顺序流发送,即为顺序流式传输. 三.何为解复用? 「解复用」是指从「音频视频信号源」中分流出「单独的音频

ffmpeg+ffserver搭建流媒体服务器

http://blog.chinaunix.net/uid-9688646-id-3399113.html ffmpeg和ffserver配合使用可以实现实时的流媒体服务. 一.理解 里边主要有如下四个东西,搞清楚他们之间的关系就差不多明白了. 1. ffmpeg 2. ffserver 3. ffserver.conf 4. feed1.ffm 1. ffmpeg,负责媒体文件的transcode工作,把你服务器上的源媒体文件转换成要发送出去的流媒体文件. 2. ffserver,负责响应客户

Ubuntu 12.04+DarwinStreamingSrvr6.0.3 架设流媒体服务器

1.安装Ubuntu 12.04操作系统,网上很多教程.. 2.打开终端,下载darwin源代码DarwinStreamingSrvr6.0.3-Source.tar,补丁patch dss-6.0.3.patch(确保Ubuntu系统能够上网) (1) 下载darwin源代码DarwinStreamingSrvr6.0.3-Source.tar $wget http://dss.macosforge.org/downloads/DarwinStreamingSrvr6.0.3-Source.t

obs nginx-rtmp-module搭建流媒体服务器实现直播 ding

接下来我就简单跟大家介绍一下利用nginx来搭建流媒体服务器. 我选择的是腾讯云服务器 1.下载nginx-rtmp-module: nginx-rtmp-module的官方github地址:https://github.com/arut/nginx-rtmp-module 使用命令: [php] view plain copy git clone https://github.com/arut/nginx-rtmp-module.git 将nginx-rtmp-module下载到linux中.

nginx-rtmp流媒体服务器搭建【转】

nginx-rtmp https://github.com/pengqiuyuan/nginx-rtmp nginx-rtmp 流媒体服务器的搭建(采集桌面,手机直播) 在线Demo,直播自己的pc机桌面音视频(现在就一单线路,1M带宽,2个人向同一个目录下推送m3u8.ts文件肯定不行,之后再改,资源有限) 1.下载ffmpeg及脚本 http://download.csdn.net/detail/pqy15005917185/8160799 2.安装screen-capture-record

分析影响流媒体服务器性能的硬件瓶颈【转播】

流媒体服务器作为为用户提供服务的基本功能单元,其性能的高低直接影响到流媒体系统的服务能力.在衡量流媒体服务器时,最关键的指标是流输出能力和能同时支持的并发请求数量,下面我们以本地硬盘作为存储介质的流媒体服务器为例,首先对其工作过程进行简单的分析: (1)从硬盘盘碟中分段读取流媒体文件内容,经过硬盘接口电路(SCSI.IDE).PCI总线和系统内部总线存储到内存中(途中经过硬盘控制卡和PCI控制器两个转换接口). (2)在流媒体文件被发送到网络上之前,CPU需要对内存中的流媒体文件片段进行一些处理

如何架设流媒体服务器

所谓流媒体技术,是指将连续的影像和声音信息经过压缩处理后放在网站服务器上,让用户能够一边下载一边观看.收听(即所谓的“在线欣赏”),而不需要等整 个压缩文件下载到自己的机器上才可以欣赏的网络传输技术.目前,在这个领域中的竞争者主要有微软.RealNetworks.Apple三家公司,例如微 软新近发布了Windows Media Services 9.RealNetworks公司新近发布的Helix Platform.Apple新近发布的Darwin streaming server 4.1,意

网易视频云:流媒体服务器原理和架构解析

网易视频云是网易公司旗下的视频云服务产品,以Paas服务模式,向开发者提供音视频编解码SDK和开放API,助力APP接入音视频功能.今天,网易视频云的技术专家给大家分享一篇流媒体技术性文章:流媒体服务器原理和架构解析. 一个完整的多媒体文件是由音频和视频两部分组成的,H264.Xvid等就是视频编码格式,MP3.AAC等就是音频编码格式,字幕文件只是附加文件.目前大部分的播放器产品对于H.264 + AAC的MP4编码格式支持最好,但是MP4也有很多的缺点,比如视频header很大,影响在线视频