转载

Android AudioTrack实例

AudioTrack在Android系统中是用于PCM数据的混音、播放,并不涉及到音频的解码。因此MP3这类经过编码的音频格式文件不能直接通过AudioTrack正确地播放,AudioTrack只能播放PCM格式的音频数据,如wav格式的音频。

AudioTrack播放音频的实例如下:

AudioTrack audio = new AudioTrack(  AudioManager.STREAM_MUSIC, // stream mode  32000, // sample rate  AudioFormat.CHANNEL_OUT_STEREO, // single or stereo  AudioFormat.ENCODING_PCM_16BIT, // bit format  AudioTrack.MODE_STREAM                    ); audio.start(); byte[] buffer = new buffer[4096]; int count; while(true) {     audio.write(buffer, 0, 4096); } 

共有三个步骤:

  1. 构建AudioTrack对象,并且把PCM的参数传到对象里面
  2. 调用start
  3. 调用write

1. 构建AudioTrack对象

在AudioTrack构造方法内部仅调用了一个set函数

AudioTrack::AudioTrack(  audio_stream_type_t streamType,  uint32_t sampleRate,  audio_format_t format,  audio_channel_mask_t channelMask,  const sp<IMemory>& sharedBuffer,  audio_output_flags_t flags,  callback_t cbf,  void* user,  int notificationFrames,  int sessionId,  transfer_type transferType,  const audio_offload_info_t *offloadInfo,  int uid)     : mStatus(NO_INIT),       mIsTimed(false),       mPreviousPriority(ANDROID_PRIORITY_NORMAL),       mPreviousSchedulingGroup(SP_DEFAULT) {     mStatus = set(streamType, sampleRate, format, channelMask,      0 /*frameCount*/, flags, cbf, user, notificationFrames,      sharedBuffer, false /*threadCanCallJava*/, sessionId, transferType, offloadInfo, uid); } 

set方法内部主要做了什么?

status_t AudioTrack::set(  audio_stream_type_t streamType,  uint32_t sampleRate,  audio_format_t format,  audio_channel_mask_t channelMask,  int frameCountInt,  audio_output_flags_t flags,  callback_t cbf,  void* user,  int notificationFrames,  const sp<IMemory>& sharedBuffer,  bool threadCanCallJava,  int sessionId,  transfer_type transferType,  const audio_offload_info_t *offloadInfo,  int uid) {     audio_io_handle_t output = AudioSystem::getOutput(         streamType,         sampleRate, format, channelMask,         flags,         offloadInfo);     if (cbf != NULL) {  mAudioTrackThread = new AudioTrackThread(*this, threadCanCallJava);  mAudioTrackThread->run("AudioTrack", ANDROID_PRIORITY_AUDIO, 0 /*stack*/);     }     // create the IAudioTrack     status_t status = createTrack_l(streamType,       sampleRate,       format,       frameCount,       flags,       sharedBuffer,       output,       0 /*epoch*/); 

除了对参数的预处理以及保存之外,中间最主要的功能有三个:

  1. getOutput,获取输出设备并打开该设备
  2. 创建AudioTrackThread,并执行该线程
  3. 创建音轨,实际上是创建用户与Android系统的共享内存,用于传输音频数据

由于getOutput与createTrack_l的篇幅较大,我会在后面的章节在分析,这里分析一下AudioTrackThread。

AudioTrackThread主要用于反馈处理,会根据不同的buffer状态进行不同的操作,其中buffer状态包括下面几种:

  1. buffer的position有增长,说明buffer正在被填充;
  2. remainFrames减少说明buffer正在被消耗,即buffer内的Audio数据已被混音;
  3. loop_cycle说明buffer需要循环播放;
  4. loop_final说明buffer已经播放完毕;
  5. etc.

对于不同的状态,会调用到回调函数mCbf,该函数在set的时候被传入。回调函数mCbf的作用还是很大的,比如说能通知应用程序当前的播放状态,也能根据当前的状态继续进行下一步的操作。像AwesomePlayer中的音频处理模块AudioPlayer就能通过mCbf的回调自动填充buffer。

bool AudioTrack::AudioTrackThread::threadLoop() {  nsecs_t ns = mReceiver.processAudioBuffer(this); } // ------------------------------------------------------------------------- nsecs_t AudioTrack::processAudioBuffer(const sp<AudioTrackThread>& thread) {   mCbf(...); } 

2. 调用start

start方法是触发混音线程对当前音轨进行混音并输出,篇幅较大,会在后面章节分析

3. 调用write

write方法需要获得刚刚所创建的音轨,并且把PCM数据往音轨写入。由于音轨的大小有限,write也很有可能一次性不能写入全部数据,因此需要循环调用write方法

// -------------------------------------------------------------------------  ssize_t AudioTrack::write(const void* buffer, size_t userSize) {      while (userSize >= mFrameSize) {         audioBuffer.frameCount = userSize / mFrameSize;          status_t err = obtainBuffer(&audioBuffer, &ClientProxy::kForever);          memcpy(audioBuffer.i8, buffer, toWrite);     } }

需要注意的就是AudioTrack除了初始化之外,write只是往音轨内写入PCM数据,这是Audio数据流动的第一步。

Android AudioTrack实例

正文到此结束
Loading...