需要实现的需求:
前端展示录音的时长
实现该需求的前提条件:
1.深海捷(录音厂商)提供了两个关于录音的接口,一个是下载接口(访问接口,直接就下载音频文件了),
另一个接口是播放接口(接口返回一个html文件,文件中用Object标签实现了播放,可是只能在ie下播放,在chrom中无法展示播放器)
2.如果使用深海捷的服务拨打电话后,是会有回调事件,返回录音时长存到数据库的,所以这种场景已经有录音时长的数据,前端直接展示就 可以
3.还有一种场景就是接下来需要实现的场景,用户手动上传录音,这个时候数据库是没有录音时长数据,在做此需求前,是有历史存量数据的 所以觉得比较好的方式是,当用户需要查看该录音时,如果数据库没有该录音的时长,就用一个方法去获取录音时长,并且入库,可以避免 多次计算,做到一人计算,便可多人查看的效果
思路:
1.前端使用audio标签的去获取录音时长,可是后端只有一个下载录音的接口,所以如果给audio的src设置成下载的url的话,文件就直接下载了,无法获取时长,要想实现该方法,则需要后端转发一下请求,把下载接口改成返回音频文件的接口
2.后端直接去请求下载接口,返回音频文件,在后端解析获取音频时长,并且入库
实操:
1.思路1实操阻碍点,使用request请求下载接口,转发数据是无法改变成不下载的方式,该方法有待研究
2.最后采用了思路2的的方法,后端用到了request包,使用request.get去请求音频下载接口,这里要注意需要设置request.get({rejectUnauthorized: false, url }),没有设置rejectUnauthorized为false的话,请求会报错。获取到接口返回的数据流之后,使用get-audio-duration包的getAudioDurationInSeconds方法获取录音的时长,然后存储到数据库
疑惑:
1.后端使用request获取通话录音时,返回的数据是以什么形式存在的,流?文件?buffer?
2.如何通过接口转发,发原本是下载接口的,改成返回audio可直接播放的接口形式,修改content-disposition??
原文地址:https://www.cnblogs.com/krisZzz/p/11043682.html