Android音频开发之——如何播放一帧音频

本文重点关注如何在Android平台上播放一帧音频数据。阅读本文之前,建议先读一下《Android音频开发(1):基础知识》,因为音频开发过程中,经常要涉及到这些基础知识,掌握了这些重要的概念后,开发过程中的很多参数和流程就会更加容易理解。

Android SDK 提供了3套音频播放的API,分别是:MediaPlayer,SoundPool,AudioTrack,关于它们的区别可以看这篇文章:《Intro to the three Android Audio APIs》,简单来说,MediaPlayer 更加适合在后台长时间播放本地音乐文件或者在线的流式资源; SoundPool 则适合播放比较短的音频片段,比如游戏声音、按键声、铃声片段等等,它可以同时播放多个音频; 而 AudioTrack 则更接近底层,提供了非常强大的控制能力,支持低延迟播放,适合流媒体和VoIP语音电话等场景。

音频的开发,更广泛地应用不仅仅局限于播放本地文件或者音频片段,因此,本文重点关注如何利AudioTrack API 来播放音频数据(注意,使用AudioTrack播放的音频必须是解码后的PCM数据)。

1. AudioTrack 的工作流程

首先,我们了解一下 AudioTrack 的工作流程:

(1) 配置参数,初始化内部的音频播放缓冲区

(2) 开始播放

(3) 需要一个线程,不断地向 AudioTrack 的缓冲区“写入”音频数据,注意,这个过程一定要及时,否则就会出现“underrun”的错误,该错误在音频开发中比较常见,意味着应用层没有及时地“送入”音频数据,导致内部的音频播放缓冲区为空。

(4) 停止播放,释放资源

2. AudioTrack 的参数配置

上面是 AudioTrack 的构造函数原型,主要靠构造函数来配置相关的参数,下面一一解释(再次建议先阅读一下《Android音频开发(1):基础知识》):

(1) streamType

这个参数代表着当前应用使用的哪一种音频管理策略,当系统有多个进程需要播放音频时,这个管理策略会决定最终的展现效果,该参数的可选的值以常量的形式定义在 AudioManager 类中,主要包括:

STREAM_VOCIE_CALL:电话声音

STREAM_SYSTEM:系统声音

STREAM_RING:铃声

STREAM_MUSCI:音乐声

STREAM_ALARM:警告声

STREAM_NOTIFICATION:通知声

(2) sampleRateInHz

采样率,从AudioTrack源码的“audioParamCheck”函数可以看到,这个采样率的取值范围必须在 4000Hz~192000Hz 之间。

(3) channelConfig

通道数的配置,可选的值以常量的形式定义在 AudioFormat 类中,常用的是 CHANNEL_IN_MONO(单通道),CHANNEL_IN_STEREO(双通道)

(4) audioFormat

这个参数是用来配置“数据位宽”的,可选的值也是以常量的形式定义在 AudioFormat 类中,常用的是 ENCODING_PCM_16BIT(16bit),ENCODING_PCM_8BIT(8bit),注意,前者是可以保证兼容所有Android手机的。

(5) bufferSizeInBytes

这个是最难理解又最重要的一个参数,它配置的是 AudioTrack 内部的音频缓冲区的大小,该缓冲区的值不能低于一帧“音频帧”(Frame)的大小,而前一篇文章介绍过,一帧音频帧的大小计算如下:

int size = 采样率 x 位宽 x 采样时间 x 通道数

采样时间一般取 2.5ms~120ms 之间,由厂商或者具体的应用决定,我们其实可以推断,每一帧的采样时间取得越短,产生的延时就应该会越小,当然,碎片化的数据也就会越多。

在Android开发中,AudioTrack 类提供了一个帮助你确定这个 bufferSizeInBytes 的函数,原型如下:

int getMinBufferSize(int sampleRateInHz, int channelConfig, int audioFormat);

不同的厂商的底层实现是不一样的,但无外乎就是根据上面的计算公式得到一帧的大小,音频缓冲区的大小则必须是一帧大小的2~N倍,有兴趣的朋友可以继续深入源码探究探究。

实际开发中,强烈建议由该函数计算出需要传入的 bufferSizeInBytes,而不是自己手动计算。

(6) mode

AudioTrack 提供了两种播放模式,一种是 static 方式,一种是 streaming 方式,前者需要一次性将所有的数据都写入播放缓冲区,简单高效,通常用于播放铃声、系统提醒的音频片段; 后者则是按照一定的时间间隔不间断地写入音频数据,理论上它可用于任何音频播放的场景。

可选的值以常量的形式定义在 AudioTrack 类中,一个是 MODE_STATIC,另一个是 MODE_STREAM,根据具体的应用传入对应的值即可。

4. 示例代码

我将 AudioTrack 类的接口简单封装了一下,提供了一个 AudioPlayer 类,可以到我的Github下载:https://github.com/Jhuster/Android/blob/master/Audio/AudioPlayer.java

这里也贴出来一份:

 1 import android.util.Log;
 2 import android.media.AudioFormat;
 3 import android.media.AudioManager;
 4 import android.media.AudioTrack;
 5
 6 public class AudioPlayer {
 7
 8     private static final String TAG = "AudioPlayer";
 9
10     private static final int DEFAULT_STREAM_TYPE = AudioManager.STREAM_MUSIC;
11     private static final int DEFAULT_SAMPLE_RATE = 44100;
12     private static final int DEFAULT_CHANNEL_CONFIG = AudioFormat.CHANNEL_IN_STEREO;
13     private static final int DEFAULT_AUDIO_FORMAT = AudioFormat.ENCODING_PCM_16BIT;
14     private static final int DEFAULT_PLAY_MODE = AudioTrack.MODE_STREAM;
15
16     private boolean mIsPlayStarted = false;
17     private int mMinBufferSize = 0;
18     private AudioTrack mAudioTrack;
19
20     public boolean startPlayer() {
21         return startPlayer(DEFAULT_STREAM_TYPE,DEFAULT_SAMPLE_RATE,DEFAULT_CHANNEL_CONFIG,DEFAULT_AUDIO_FORMAT);
22     }
23
24     public boolean startPlayer(int streamType, int sampleRateInHz, int channelConfig, int audioFormat) {
25
26         if (mIsPlayStarted) {
27             Log.e(TAG, "Player already started !");
28             return false;
29         }
30
31         mMinBufferSize = AudioTrack.getMinBufferSize(sampleRateInHz,channelConfig,audioFormat);
32         if (mMinBufferSize == AudioTrack.ERROR_BAD_VALUE) {
33             Log.e(TAG, "Invalid parameter !");
34             return false;
35         }
36         Log.d(TAG , "getMinBufferSize = "+mMinBufferSize+" bytes !");
37
38         mAudioTrack = new AudioTrack(streamType,sampleRateInHz,channelConfig,audioFormat,mMinBufferSize,DEFAULT_PLAY_MODE);
39         if (mAudioTrack.getState() == AudioTrack.STATE_UNINITIALIZED) {
40             Log.e(TAG, "AudioTrack initialize fail !");
41             return false;
42         }
43
44         mIsPlayStarted = true;
45
46         Log.d(TAG, "Start audio player success !");
47
48         return true;
49     }
50
51     public int getMinBufferSize() {
52         return mMinBufferSize;
53     }
54
55     public void stopPlayer() {
56
57         if (!mIsPlayStarted) {
58             return;
59         }
60
61         if (mAudioTrack.getPlayState() == AudioTrack.PLAYSTATE_PLAYING) {
62             mAudioTrack.stop();
63         }
64
65         mAudioTrack.release();
66         mIsPlayStarted = false;
67
68         Log.d(TAG, "Stop audio player success !");
69     }
70
71     public boolean play(byte[] audioData, int offsetInBytes, int sizeInBytes) {
72
73         if (!mIsPlayStarted) {
74             Log.e(TAG, "Player not started !");
75             return false;
76         }
77
78         if (sizeInBytes < mMinBufferSize) {
79             Log.e(TAG, "audio data is not enough !");
80             return false;
81         }
82
83         if (mAudioTrack.write(audioData,offsetInBytes,sizeInBytes) != sizeInBytes) {
84             Log.e(TAG, "Could not write all the samples to the audio device !");
85         }
86
87         mAudioTrack.play();
88
89         Log.d(TAG , "OK, Played "+sizeInBytes+" bytes !");
90
91         return true;
92     }
93 }

原文:http://ticktick.blog.51cto.com/823160/1750593

时间: 2024-10-13 02:08:08

Android音频开发之——如何播放一帧音频的相关文章

Android音频开发(3):如何播放一帧音频

本文重点关注如何在Android平台上播放一帧音频数据.阅读本文之前,建议先读一下<Android音频开发(1):基础知识>,因为音频开发过程中,经常要涉及到这些基础知识,掌握了这些重要的概念后,开发过程中的很多参数和流程就会更加容易理解. Android SDK 提供了3套音频播放的API,分别是:MediaPlayer,SoundPool,AudioTrack,关于它们的区别可以看这篇文章:<Intro to the three Android Audio APIs>,简单来说

Android底层开发之耳机插拔与音频通道切换实例

Android底层开发之耳机插拔与音频通道切换实例 由于使用的是耳机 麦克分离式的耳机,所以要分别上报事件.在Android系统层耳机插孔的检测是基于/sys/class/switch/h2w/state的值来判断的(以4.4.4_r2为例子位于WiredAccessoryManager.java). 只要在内核中实现一个「或真或假」的基于switch类的h2w开关.Android系统就可以监听到插拔信息. 在播放音乐的时候插入耳机,使用tinymix(参考:Android音频底层调试-基于ti

音频对列服务——播放网络的音频——转载

无论是前面的录音还是音频播放均不支持网络流媒体播放,当然对于录音来说这种需求可能不大,但是对于音频播放来说有时候就很有必要了. AVAudioPlayer只能播放本地文件,并且是一次性加载所以音频数据,初始化AVAudioPlayer时指定的URL也只能是File URL而不能是HTTP URL.当然,将音频文件下载到本地然后再调用AVAudioPlayer来播放也是一种播放网络音频的办法,但是这种方式最大的弊端就是必须等到整个音 频播放完成才能播放,而不能使用流式播放,这往往在实际开发中是不切

Android音频开发(5):音频数据的编解码

前面四篇文章分别介绍了音频开发必备的基础知识.如何采集一帧音频.如何播放一帧音频.如何存储和解析wav格式的文件,建议有兴趣的小伙伴们先读一读,本文则重点关注如何对一帧音频数据进行编码和解码. 1. Android 官方的 MediaCodec API 首先,我们了解一下 Android 官方提供的音频编解码的 API,即 MediaCodec 类,该 API 是在 Andorid 4.1 (API 16) 版本引入的,因此只能工作于 Android 4.1 以上的手机上. 1.1 MediaC

Android音频开发(2):如何采集一帧音频

本文重点关注如何在Android平台上采集一帧音频数据.阅读本文之前,建议先读一下我的上一篇文章<Android音频开发(1):基础知识>,因为音频开发过程中,经常要涉及到这些基础知识,掌握了这些重要的概念后,开发过程中的很多参数和流程就会更加容易理解. Android SDK 提供了两套音频采集的API,分别是:MediaRecorder 和 AudioRecord,前者是一个更加上层一点的API,它可以直接把手机麦克风录入的音频数据进行编码压缩(如AMR.MP3等)并存成文件,而后者则更接

android开发:把一个byte数组转换成wav音频文件,并且播放

============问题描述============ 如题,byte数组转换成wav音频文件,并且播放,下面代码能生成data/data/com.example.playwav/cache/temp.wav 但是在播放的时候报异常. 我把代码和Log贴在下面了. 我分析,原因应该是wav文件格式的编解码问题,不能这么随随便便把任意的一个byte数组就转化为了wav 希望了解wav编解码开发的童鞋给点解决办法 byte[] a = { 52, 51, 48, 28, 58, 64, 98,-1

Android游戏开发之游戏帧动画的播放与处理

带你走进游戏开发的世界之游戏帧动画的处理<ignore_js_op> 1.帧动画的原理 帧动画帧动画顾名思义,一帧一帧播放的动画就是帧动画. 帧动画和我们小时候看的动画片的原理是一样的,在相同区域快速切换图片给人们呈现一种视觉的假象感觉像是在播放动画,其实不过是N张图片在一帧一帧的切换罢了.            如图所示:人物行走动画的实现方式, 4帧行走动画在播放区域 一帧一帧向左切换播放 给人们一种播放动画的假象 ,图片就动了起来, 很简单吧,其它三方向播放动画的方法类似我就不再一一举例

Android音频开发(4):如何存储和解析wav文件

无论是文字.图像还是声音,都必须以一定的格式来组织和存储起来,这样播放器才知道以怎样的方式去解析这一段数据,例如,对于原始的图像数据,我们常见的格式有 YUV.Bitmap,而对于音频来说,最简单常见的格式就是 wav 格式了. wav 格式,与 bitmap 一样,都是微软开发的一种文件格式规范,它们都有一个相似之处,就是整个文件分为两部分,第一部分是"文件头",记录重要的参数信息,对于音频而言,就包括:采样率.通道数.位宽等等,对于图像而言,就包括:图像的宽高.色彩位数等等:第二部

Android音频开发(1):基础知识

先来点闲言碎语,前段时间我有一段感悟:Android开发,本身并不是一个可以走得多远的方向,它只是一个平台,提供了许多封装好的API,让大家能够快速开发出针对特定业务的应用. 真正有价值的地方就在于Android与具体的业务方向结合,比如:Android与音视频技术,Android与智能硬件交互,Android与前端技术的融合与探索,Android信息安全,Android源码深度定制等等. 我一直比较看好音视频/多媒体方向,希望在此能够深入积累和探索,前段时间我发布了一款Android VoIP