本文檔是開發者集成科大訊飛MSC(Mobile Speech Client,移動語音終端)iOS版SDK的使用指南,定義了語音聽寫、語音識別、語音合成、語義理解,語音評測、語音喚醒,人臉識別等服務接口的使用。關于各服務接口更詳細的說明,請參考 [**MSC iOS API 文檔**](http://mscdoc.xfyun.cn/ios/api)。在集成過程中如有疑問,可登錄[語音云開發者論壇](http://bbs.xfyun.cn/),查找答案或與其他開發者交流。
#### **1. iOS語音SDK概述**
MSC SDK的主要功能接口如下圖所示:

#### **2. 業務描述**
為了更好地理解后續內容,這里對文檔中出現的若干專有名詞進行解釋說明,更為詳細的信息可查看官網文檔(http://www.xfyun.cn/doccenter/)中的語音服務部分。
<table>
<thead>
<tr>
<th style="
width: 65px;text-align:center;
">名詞</th>
<th style="
text-align:center;">解釋</th>
</tr>
</thead>
<tbody>
<tr>
<td>語音合成</td>
<td>將一段文字轉換為成語音,可根據需要合成出不同音色、語速和語調的聲音,讓機器像人一樣開口說話。</td>
</tr>
<tr>
<td>語音聽寫</td>
<td>將一段語音轉換成文本,把語音中的文字信息提取出來,并可以優先識別用戶手機特有的聯系人和個性化數據。</td>
</tr>
<tr>
<td>語法識別</td>
<td>判斷用戶所說的內容是否與預定義的語法相符合,主要用于識別用戶是否下達某項指令,使用語法識別前,需要先定義語法。</td>
</tr>
<tr>
<td>AIUI語義</td>
<td>在語音聽寫基礎上,分析理解用戶的說話意圖,返回結構化的指令信息。開發者可在AIUI開放平臺定義專屬的問答格式。</td>
</tr>
<tr>
<td>語音評測</td>
<td>通過智能語音技術自動對發音水平進行評價,給出用戶綜合得分和發音信息。</td>
</tr>
<tr>
<td>語音喚醒</td>
<td>即設備(手機、玩具、家電等)在休眠(或鎖屏)狀態下也能檢測到用戶的聲音,并根據聲音提示進行相應操作,開啟全語音交互,同時支持喚醒+識別、喚醒+語義的OneShot方案。</td>
</tr>
<tr>
<td>身份驗證</td>
<td>在本方案中,開發者可根據應用場景靈活的選擇身份驗證方式,如單人臉驗證、單聲紋驗證以及人臉+聲紋的融合驗證方式。這樣既解決了單生物特征識別暴露的局限性,也提供了更精準、更安全的識別和檢測方案。身份驗證方案還會持續增加更多的常用特征,達到更廣泛的市場應用前景。</td>
</tr>
</tbody>
</table>