DuplicatingThread需要與藍牙結合起來使用,它的存在與Audio硬件結構息息相關。讀者可參考圖7-12“智能手機硬件架構圖”來理解。當一份數據同時需要發送給DSP和藍牙A2DP設備時,DuplicatingThread就派上用場了。在分析DuplicatingThread前,還是應該了解一下它的來龍去脈。
1. DuplicatingThread的來歷
DuplicatingThread和藍牙的A2DP設備有關系。可先假設有一個藍牙立體聲耳機已經連接上了,接著從setDeviceConnectionState開始分析,代碼如下所示:
**AudioPolicyManagerBase.cpp**
~~~
status_t AudioPolicyManagerBase::setDeviceConnectionState(
AudioSystem::audio_devicesdevice,
AudioSystem::device_connection_state state,
const char *device_address)
{
......
switch (state)
{
case AudioSystem::DEVICE_STATE_AVAILABLE:
mAvailableOutputDevices |= device;
#ifdef WITH_A2DP
if (AudioSystem::isA2dpDevice(device)) {
//專門處理A2DP設備的連接
status_t status = handleA2dpConnection(device, device_address);
}
#endif
......
~~~
對于A2DP設備,有專門的函數handleA2dpConnection處理,代碼如下所示:
**AudioPolicyManagerBase.cpp**
~~~
status_tAudioPolicyManagerBase::handleA2dpConnection(
AudioSystem::audio_devicesdevice,
const char*device_address)
{
AudioOutputDescriptor *outputDesc = new AudioOutputDescriptor();
outputDesc->mDevice= device;
//先為mA2dpOutput創建一個MixerThread,這個和mHardwareOutput一樣
mA2dpOutput =mpClientInterface->openOutput(&outputDesc->mDevice,
&outputDesc->mSamplingRate,
&outputDesc->mFormat,
&outputDesc->mChannels,
&outputDesc->mLatency,
outputDesc->mFlags);
if (mA2dpOutput) {
/*
a2dpUsedForSonification永遠返回true,表示屬于SONIFCATION策略的音頻流聲音需要
同時從藍牙和DSP中傳出。屬于SONIFCATION策略的音頻流類型可查看前面關于getStrategy的
分析,來電鈴聲、短信通知等屬于這一類
*/
if(a2dpUsedForSonification()) {
/*
創建一個DuplicateOutput,注意它的參數,第一個是藍牙MixerThread
第二個是DSPMixerThread
*/
mDuplicatedOutput = mpClientInterface->openDuplicateOutput(
mA2dpOutput, mHardwareOutput);
}
if(mDuplicatedOutput != 0 ||
!a2dpUsedForSonification()) {
if (a2dpUsedForSonification()) {
//創建一個AudioOutputDescriptor對象
AudioOutputDescriptor *dupOutputDesc = new
AudioOutputDescriptor();
dupOutputDesc->mOutput1 = mOutputs.valueFor(mHardwareOutput);
dupOutputDesc->mOutput2 = mOutputs.valueFor(mA2dpOutput);
......
//保存mDuplicatedOutput和dupOutputDesc鍵值對
addOutput(mDuplicatedOutput, dupOutputDesc);
......
}
}
}
......
~~~
這里,最重要的函數是openDuplicateOutput。它和openOutput一樣,最終的處理都是在AF中。去那里看看,代碼如下所示:
**AudioFlinger.cpp**
~~~
int AudioFlinger::openDuplicateOutput(intoutput1, int output2)
{
Mutex::Autolock_l(mLock);
//output1對應藍牙的MixerThread
MixerThread*thread1 = checkMixerThread_l(output1);
//output2對應DSP的MixerThread
MixerThread *thread2 = checkMixerThread_l(output2);
//①創建DuplicatingThread,注意它第二個參數使用的,是代表藍牙的MixerThread
DuplicatingThread *thread = new DuplicatingThread(this,
thread1,++mNextThreadId);
//②加入代表DSP的MixerThread
thread->addOutputTrack(thread2);
mPlaybackThreads.add(mNextThreadId, thread);
returnmNextThreadId;//返回DuplicatingThread的索引
}
~~~
從現在起,MixerThread要簡寫為MT,而DuplicatingThread則簡寫為DT。
OK,這里面有兩個重要的函數調用,一起來看。
2. DuplicatingThread和OutputTrack
先看DT的構造函數,代碼如下所示:
**AudioFlinger.cpp**
~~~
AudioFlinger::DuplicatingThread::DuplicatingThread(constsp<AudioFlinger>&
audioFlinger, AudioFlinger::MixerThread*mainThread,int id)
: MixerThread(audioFlinger,mainThread->getOutput(), id),
mWaitTimeMs(UINT_MAX)
{
//DT是MT的派生類,所以先要完成基類的構造,還記得MT的構造嗎?它會創建一個AudioMixer對象
mType =PlaybackThread::DUPLICATING;
//把代表DSP的MT加入進來,咱們看看
addOutputTrack(mainThread);
}
~~~
**AudioFlinger.cpp**
~~~
voidAudioFlinger::DuplicatingThread::addOutputTrack(MixerThread *thread)
{
intframeCount = (3 * mFrameCount * mSampleRate) / thread->sampleRate();
//構造一個OutputTrack,它的第一個參數是MT
OutputTrack *outputTrack = new OutputTrack((ThreadBase *)thread,
this, mSampleRate, mFormat,
mChannelCount,frameCount);
if(outputTrack->cblk() != NULL) {
thread->setStreamVolume(AudioSystem::NUM_STREAM_TYPES, 1.0f);
//把這個outputTrack加入到mOutputTracks數組保存
mOutputTracks.add(outputTrack);
updateWaitTime();
}
}
~~~
此時,當下面兩句代碼執行完:
~~~
DuplicatingThread *thread = newDuplicatingThread(this,
thread1,++mNextThreadId);
thread->addOutputTrack(thread2);
~~~
DT分別構造了兩個OutputTrack,一個對應藍牙的MT,一個對應DSP的MT。現在來看OutputTrack為何方神圣,代碼如下所示:
**AudioFlinger.cpp**
~~~
AudioFlinger::PlaybackThread::OutputTrack::OutputTrack(
const wp<ThreadBase>& thread, DuplicatingThread*sourceThread,
uint32_t sampleRate, int format,int channelCount,int frameCount)
:Track(thread,NULL, AudioSystem::NUM_STREAM_TYPES, sampleRate,
format, channelCount, frameCount, NULL),//最后這個參數為NULL
mActive(false),mSourceThread(sourceThread)
{
/*
OutputTrack從Track派生,所以需要先調用基類的構造,還記得Track構造函數
中的事情嗎?它會創建一塊內存,至于是不是共享內存,由Track構造函數的最后一個參數決定。
如果該值為NULL,表示沒有客戶端參與,則會在本進程內創建一塊內存,這塊內存的結構如
圖7-4所示,前邊為CB對象,后邊為數據緩沖
*/
//下面的這個thread對象為MT
PlaybackThread *playbackThread = (PlaybackThread *)thread.unsafe_get();
if(mCblk != NULL) {
mCblk->out = 1;//表示DT將往MT中寫數據
//和前面所分析的AT、AF中的處理何其相似!
mCblk->buffers = (char*)mCblk + sizeof(audio_track_cblk_t);
mCblk->volume[0] = mCblk->volume[1] = 0x1000;
mOutBuffer.frameCount = 0;
//把這個Track加到MT的Track中
playbackThread->mTracks.add(this);
}
~~~
明白了嗎?圖7-16表示的是openDuplicateOutput的結果:
:-: 
圖7-16 openDuplicateOutput的結果示意圖
圖7-16說明(以藍牙MT為例):
- 藍牙MT的Track中有一個成員為OutputTrack0。
- DT的mOutputTracks也有一個成員指向OutputTrack0。這就好像DT是MT的客戶端一樣,它和前面分析的AT是AF的客戶端類似。
- 紅色部分代表數據傳遞用的緩沖。
3. DT的客戶端AT
DT是從MT中派生的,根據AP和AT的交互流程,當AT創建的流類型對應策略為SONIFACATION時,它會從AP中得到代表DT的線程索引號。由于DT沒有重載createTrack_l,所以這個過程也會創建一個Track對象(和MT創建Track對象一樣)。此時的結果,將導致圖7-16變成圖7-17。
:-: 
圖7-17 有AT的DT全景圖
圖7-17把DT的工作方式表達得非常清晰了。一個DT配合兩個OutputTrack中的進程內緩沖,把來自AT的數據原封不動地發給藍牙MT和DSP MT,這簡直就是個數據中繼器!。不過俗話說得好,道理雖簡單,實現卻復雜。來看DT是如何完成這一復雜而艱巨的任務的吧。
4. DT的線程函數
DT的線程函數代碼如下所示:
**AudioFlinger.cpp**
~~~
boolAudioFlinger::DuplicatingThread::threadLoop()
{
int16_t* curBuf = mMixBuffer;
Vector< sp<Track> > tracksToRemove;
uint32_t mixerStatus = MIXER_IDLE;
nsecs_t standbyTime = systemTime();
size_tmixBufferSize = mFrameCount*mFrameSize;
SortedVector< sp<OutputTrack> > outputTracks;
while(!exitPending())
{
processConfigEvents();
mixerStatus = MIXER_IDLE;
{
......
//處理配置請求,和MT處理一樣
const SortedVector< wp<Track> >& activeTracks =mActiveTracks;
for (size_t i = 0; i < mOutputTracks.size(); i++) {
outputTracks.add(mOutputTracks[i]);
}
//如果AT的Track停止了,則需要停止和MT共享的OutputTrack
ifUNLIKELY((!activeTracks.size() && systemTime() > standbyTime)
|| mSuspended) {
if (!mStandby) {
for (size_t i = 0; i <outputTracks.size(); i++) {
outputTracks[i]->stop();
}
mStandby = true;
mBytesWritten = 0;
}
......
//DT從MT派生,天然具有混音的功能,所以這部分功能和MT一致
mixerStatus = prepareTracks_l(activeTracks, &tracksToRemove);
}
if(LIKELY(mixerStatus == MIXER_TRACKS_READY)) {
//outputsReady將檢查OutputTracks對應的MT狀態
if (outputsReady(outputTracks)) {
mAudioMixer->process(curBuf);//使用AudioMixer對象混音
} else {
memset(curBuf, 0, mixBufferSize);
}
sleepTime = 0;
writeFrames = mFrameCount;
}
......
if (sleepTime == 0) {
standbyTime = systemTime() +kStandbyTimeInNsecs;
for (size_t i = 0; i < outputTracks.size(); i++) {
//將混音后的數據寫到outputTrack中
outputTracks[i]->write(curBuf, writeFrames);
}
mStandby = false;
mBytesWritten += mixBufferSize;
}else {
usleep(sleepTime);
}
tracksToRemove.clear();
outputTracks.clear();
}
returnfalse;
}
~~~
現在,來自遠端進程AT的數據已得到了混音,這一份混音后的數據還將通過調用OutputTrack的write完成DT到其他兩個MT的傳輸。注意,這里除了AT使用的Track外,還有DT和兩個MT共享的OutputTrack。AT調用的start,將導致DT的Track加入到活躍數組中,但另外兩個OutputTrack還沒調用start。這些操作又是在哪里做的呢?來看write函數:
**AudioFlinger.cpp**
~~~
boolAudioFlinger::PlaybackThread::OutputTrack::write(int16_t* data,
uint32_t frames)
{
//注意,此處的OutputTrack是DT和MT共享的
Buffer *pInBuffer;
BufferinBuffer;
uint32_t channels = mCblk->channels;
booloutputBufferFull = false;
inBuffer.frameCount = frames;
inBuffer.i16 = data;
uint32_t waitTimeLeftMs = mSourceThread->waitTimeMs();
if(!mActive && frames != 0) {
//如果此Track沒有活躍,則調用start激活
start();
......
}
/*
現在,AF中的數據傳遞有三個線程:一個DT,兩個MT。MT作為DT的二級消費者,
可能由于某種原因來不及消費數據,所以DT中提供了一個緩沖隊列mBufferQueue,
把MT來不及消費的數據保存在這個緩沖隊列中。注意這個緩沖隊列容納的臨時緩沖
個數是有限制的,其限制值由kMaxOverFlowBuffers控制,初始化為10個
*/
while(waitTimeLeftMs) {
//先消耗保存在緩沖隊列的數據
if(mBufferQueue.size()) {
pInBuffer = mBufferQueue.itemAt(0);
}else {
pInBuffer = &inBuffer;
}
......
//獲取可寫緩沖,下面這句代碼是否和AT中對應的代碼很相似?
if(obtainBuffer(&mOutBuffer, waitTimeLeftMs) ==
(status_t)AudioTrack::NO_MORE_BUFFERS){
......
break;
}
uint32_toutFrames = pInBuffer->frameCount > mOutBuffer.frameCount ?
mOutBuffer.frameCount: pInBuffer->frameCount;
//將數據拷貝到DT和MT共享的那塊緩沖中去
memcpy(mOutBuffer.raw, pInBuffer->raw,
outFrames * channels * sizeof(int16_t));
//更新寫位置
mCblk->stepUser(outFrames);
pInBuffer->frameCount-= outFrames;
pInBuffer->i16 += outFrames * channels;
mOutBuffer.frameCount -= outFrames;
mOutBuffer.i16 += outFrames * channels;
......
}//while 結束
if(inBuffer.frameCount) {
sp<ThreadBase> thread = mThread.promote();
if(thread != 0 && !thread->standby()) {
if (mBufferQueue.size() < kMaxOverFlowBuffers) {
pInBuffer = new Buffer;
pInBuffer->mBuffer = new int16_t[inBuffer.frameCount * channels];
pInBuffer->frameCount = inBuffer.frameCount;
pInBuffer->i16 = pInBuffer->mBuffer;
//拷貝舊數據到新的臨時緩沖
memcpy(pInBuffer->raw, inBuffer.raw,
inBuffer.frameCount *channels * sizeof(int16_t));
//保存這個臨時緩沖
mBufferQueue.add(pInBuffer);
}
}
}
//如果數據全部寫完
if(pInBuffer->frameCount == 0) {
if (mBufferQueue.size()) {
mBufferQueue.removeAt(0);
delete [] pInBuffer->mBuffer;
delete pInBuffer;//釋放緩沖隊列對應的數據緩沖
} else {
break;
}
}
}
......
return outputBufferFull;
}
~~~
數據就這樣從AT通過DT的幫助,傳輸到藍牙的MT和DSP的MT中了。這種方式繼數據傳輸比直接使用MT傳輸要緩慢。
到這里,對DT的講解就告一段落了。本人覺得,DT的實現是AF代碼中最美妙的地方,多學習這些優秀代碼,有助于提高學習者的水平。
>[info] **說明**:DT還有別的一些細節本書中沒有涉及,讀者可以結合自己的情況進行分析和理解。
- 前言
- 第1章 閱讀前的準備工作
- 1.1 系統架構
- 1.1.1 Android系統架構
- 1.1.2 本書的架構
- 1.2 搭建開發環境
- 1.2.1 下載源碼
- 1.2.2 編譯源碼
- 1.3 工具介紹
- 1.3.1 Source Insight介紹
- 1.3.2 Busybox的使用
- 1.4 本章小結
- 第2章 深入理解JNI
- 2.1 JNI概述
- 2.2 學習JNI的實例:MediaScanner
- 2.3 Java層的MediaScanner分析
- 2.3.1 加載JNI庫
- 2.3.2 Java的native函數和總結
- 2.4 JNI層MediaScanner的分析
- 2.4.1 注冊JNI函數
- 2.4.2 數據類型轉換
- 2.4.3 JNIEnv介紹
- 2.4.4 通過JNIEnv操作jobject
- 2.4.5 jstring介紹
- 2.4.6 JNI類型簽名介紹
- 2.4.7 垃圾回收
- 2.4.8 JNI中的異常處理
- 2.5 本章小結
- 第3章 深入理解init
- 3.1 概述
- 3.2 init分析
- 3.2.1 解析配置文件
- 3.2.2 解析service
- 3.2.3 init控制service
- 3.2.4 屬性服務
- 3.3 本章小結
- 第4章 深入理解zygote
- 4.1 概述
- 4.2 zygote分析
- 4.2.1 AppRuntime分析
- 4.2.2 Welcome to Java World
- 4.2.3 關于zygote的總結
- 4.3 SystemServer分析
- 4.3.1 SystemServer的誕生
- 4.3.2 SystemServer的重要使命
- 4.3.3 關于 SystemServer的總結
- 4.4 zygote的分裂
- 4.4.1 ActivityManagerService發送請求
- 4.4.2 有求必應之響應請求
- 4.4.3 關于zygote分裂的總結
- 4.5 拓展思考
- 4.5.1 虛擬機heapsize的限制
- 4.5.2 開機速度優化
- 4.5.3 Watchdog分析
- 4.6 本章小結
- 第5章 深入理解常見類
- 5.1 概述
- 5.2 以“三板斧”揭秘RefBase、sp和wp
- 5.2.1 第一板斧--初識影子對象
- 5.2.2 第二板斧--由弱生強
- 5.2.3 第三板斧--破解生死魔咒
- 5.2.4 輕量級的引用計數控制類LightRefBase
- 5.2.5 題外話-三板斧的來歷
- 5.3 Thread類及常用同步類分析
- 5.3.1 一個變量引發的思考
- 5.3.2 常用同步類
- 5.4 Looper和Handler類分析
- 5.4.1 Looper類分析
- 5.4.2 Handler分析
- 5.4.3 Looper和Handler的同步關系
- 5.4.4 HandlerThread介紹
- 5.5 本章小結
- 第6章 深入理解Binder
- 6.1 概述
- 6.2 庖丁解MediaServer
- 6.2.1 MediaServer的入口函數
- 6.2.2 獨一無二的ProcessState
- 6.2.3 時空穿越魔術-defaultServiceManager
- 6.2.4 注冊MediaPlayerService
- 6.2.5 秋風掃落葉-StartThread Pool和join Thread Pool分析
- 6.2.6 你徹底明白了嗎
- 6.3 服務總管ServiceManager
- 6.3.1 ServiceManager的原理
- 6.3.2 服務的注冊
- 6.3.3 ServiceManager存在的意義
- 6.4 MediaPlayerService和它的Client
- 6.4.1 查詢ServiceManager
- 6.4.2 子承父業
- 6.5 拓展思考
- 6.5.1 Binder和線程的關系
- 6.5.2 有人情味的訃告
- 6.5.3 匿名Service
- 6.6 學以致用
- 6.6.1 純Native的Service
- 6.6.2 扶得起的“阿斗”(aidl)
- 6.7 本章小結
- 第7章 深入理解Audio系統
- 7.1 概述
- 7.2 AudioTrack的破解
- 7.2.1 用例介紹
- 7.2.2 AudioTrack(Java空間)分析
- 7.2.3 AudioTrack(Native空間)分析
- 7.2.4 關于AudioTrack的總結
- 7.3 AudioFlinger的破解
- 7.3.1 AudioFlinger的誕生
- 7.3.2 通過流程分析AudioFlinger
- 7.3.3 audio_track_cblk_t分析
- 7.3.4 關于AudioFlinger的總結
- 7.4 AudioPolicyService的破解
- 7.4.1 AudioPolicyService的創建
- 7.4.2 重回AudioTrack
- 7.4.3 聲音路由切換實例分析
- 7.4.4 關于AudioPolicy的總結
- 7.5 拓展思考
- 7.5.1 DuplicatingThread破解
- 7.5.2 題外話
- 7.6 本章小結
- 第8章 深入理解Surface系統
- 8.1 概述
- 8.2 一個Activity的顯示
- 8.2.1 Activity的創建
- 8.2.2 Activity的UI繪制
- 8.2.3 關于Activity的總結
- 8.3 初識Surface
- 8.3.1 和Surface有關的流程總結
- 8.3.2 Surface之乾坤大挪移
- 8.3.3 乾坤大挪移的JNI層分析
- 8.3.4 Surface和畫圖
- 8.3.5 初識Surface小結
- 8.4 深入分析Surface
- 8.4.1 與Surface相關的基礎知識介紹
- 8.4.2 SurfaceComposerClient分析
- 8.4.3 SurfaceControl分析
- 8.4.4 writeToParcel和Surface對象的創建
- 8.4.5 lockCanvas和unlockCanvasAndPost分析
- 8.4.6 GraphicBuffer介紹
- 8.4.7 深入分析Surface的總結
- 8.5 SurfaceFlinger分析
- 8.5.1 SurfaceFlinger的誕生
- 8.5.2 SF工作線程分析
- 8.5.3 Transaction分析
- 8.5.4 關于SurfaceFlinger的總結
- 8.6 拓展思考
- 8.6.1 Surface系統的CB對象分析
- 8.6.2 ViewRoot的你問我答
- 8.6.3 LayerBuffer分析
- 8.7 本章小結
- 第9章 深入理解Vold和Rild
- 9.1 概述
- 9.2 Vold的原理與機制分析
- 9.2.1 Netlink和Uevent介紹
- 9.2.2 初識Vold
- 9.2.3 NetlinkManager模塊分析
- 9.2.4 VolumeManager模塊分析
- 9.2.5 CommandListener模塊分析
- 9.2.6 Vold實例分析
- 9.2.7 關于Vold的總結
- 9.3 Rild的原理與機制分析
- 9.3.1 初識Rild
- 9.3.2 RIL_startEventLoop分析
- 9.3.3 RIL_Init分析
- 9.3.4 RIL_register分析
- 9.3.5 關于Rild main函數的總結
- 9.3.6 Rild實例分析
- 9.3.7 關于Rild的總結
- 9.4 拓展思考
- 9.4.1 嵌入式系統的存儲知識介紹
- 9.4.2 Rild和Phone的改進探討
- 9.5 本章小結
- 第10章 深入理解MediaScanner
- 10.1 概述
- 10.2 android.process.media分析
- 10.2.1 MSR模塊分析
- 10.2.2 MSS模塊分析
- 10.2.3 android.process.media媒體掃描工作的流程總結
- 10.3 MediaScanner分析
- 10.3.1 Java層分析
- 10.3.2 JNI層分析
- 10.3.3 PVMediaScanner分析
- 10.3.4 關于MediaScanner的總結
- 10.4 拓展思考
- 10.4.1 MediaScannerConnection介紹
- 10.4.2 我問你答
- 10.5 本章小結