語(yǔ)音識(shí)別技術(shù)包含什么技術(shù)
語(yǔ)音識(shí)別技術(shù),也被稱為自動(dòng)語(yǔ)音識(shí)別(Automatic Speech Recognition,ASR),其目標(biāo)是將人類(lèi)的語(yǔ)音中的詞匯內(nèi)容轉(zhuǎn)換為計(jì)算機(jī)可讀的輸入,例如按鍵、二進(jìn)制編碼或者字符序列。與說(shuō)話人識(shí)別及說(shuō)話人確認(rèn)不同,后者嘗試識(shí)別或確認(rèn)發(fā)出語(yǔ)音的說(shuō)話人而非其中所包含的詞匯內(nèi)容。2019年8月17日,北京互聯(lián)網(wǎng)法院發(fā)布《互聯(lián)網(wǎng)技術(shù)司法應(yīng)用白皮書(shū)》,該《白皮書(shū)》闡述了十大典型技術(shù)應(yīng)用,其中包括語(yǔ)音識(shí)別技術(shù)。
完整的語(yǔ)音芯片識(shí)別系統(tǒng)涵蓋了很多技術(shù),成熟的語(yǔ)音識(shí)別技術(shù),幾乎改變了互聯(lián)網(wǎng)和人機(jī)交互的方式,語(yǔ)音識(shí)別技術(shù)的發(fā)展速度也是迅速的,幾乎每年都會(huì)有新的驚喜出現(xiàn),那么完整的語(yǔ)音識(shí)別系統(tǒng)到底包含哪些技術(shù)呢?
完整的語(yǔ)音識(shí)別系統(tǒng)包含哪些技術(shù)
一、信號(hào)處理技術(shù)
對(duì)語(yǔ)音信號(hào)進(jìn)行分析處理,通過(guò)靜音處理、噪音處理、語(yǔ)音增強(qiáng)等方法,消除外部環(huán)境對(duì)語(yǔ)音的影響,去除多余信息。
二、聲學(xué)特征提取技術(shù)
接收信號(hào)處理后等到的有效信號(hào),對(duì)波形進(jìn)行聲學(xué)特征提取,提取關(guān)鍵信息和表達(dá)語(yǔ)言含義的特征信息。
三、聲學(xué)模型處理技術(shù)
聲學(xué)模型是語(yǔ)音識(shí)別技術(shù)中最關(guān)鍵的部分,它可以提取語(yǔ)音特征矢量序列,計(jì)算發(fā)音模板的距離,生成聲學(xué)模型分?jǐn)?shù)。
四、語(yǔ)音模型技術(shù)
語(yǔ)音模型對(duì)語(yǔ)音識(shí)別技術(shù)也非常的重要,通常采用的是統(tǒng)計(jì)語(yǔ)法的語(yǔ)音模型、語(yǔ)義和語(yǔ)法結(jié)構(gòu)命令語(yǔ)言模型為主,對(duì)語(yǔ)法和語(yǔ)義進(jìn)行分析,減少搜索空間,提高系統(tǒng)識(shí)別率。語(yǔ)音識(shí)別技術(shù)是將聲音轉(zhuǎn)化成文字的一種技術(shù),類(lèi)似于人類(lèi)的耳朵,擁有聽(tīng)懂他人說(shuō)話的內(nèi)容并將其轉(zhuǎn)換成可以辨識(shí)的內(nèi)容的能力。
不妨設(shè)想一個(gè)場(chǎng)景,當(dāng)你加完班回到家中,疲憊地躺在沙發(fā)上,隨口一句“打開(kāi)電視”,沙發(fā)前的電視按命令開(kāi)啟,然后一個(gè)溫柔的聲音問(wèn)候你,“今天想看什么類(lèi)型的電影?”或者主動(dòng)向你推薦目前流行的一些影片。
這些都是語(yǔ)音識(shí)別所能夠處理的場(chǎng)景,雖然看似科幻,但是實(shí)際上這些場(chǎng)景已經(jīng)不再是以往人們的設(shè)想,正在悄悄地走進(jìn)你我的生活。
2018 年,谷歌在開(kāi)發(fā)者大會(huì)上演示了一個(gè)預(yù)約理發(fā)店的聊天機(jī)器人,語(yǔ)氣惟妙惟肖,表現(xiàn)相當(dāng)令人驚艷。相信很多讀者都接到過(guò)人工智能的推銷(xiāo)電話,不去仔細(xì)分辨的話,根本不知道電話那頭只是一個(gè)能夠做出語(yǔ)音處理的聊天機(jī)器人程序。
“語(yǔ)音轉(zhuǎn)換”“人機(jī)對(duì)話”“機(jī)器人客服”是語(yǔ)音識(shí)別應(yīng)用廣泛的三部分,也是商業(yè)價(jià)值較高的一些方向。此外,還有看圖說(shuō)話等一些帶有娛樂(lè)性質(zhì)的應(yīng)用。這些統(tǒng)統(tǒng)是語(yǔ)音識(shí)別技術(shù)的應(yīng)用。
語(yǔ)音識(shí)別通常稱為自動(dòng)語(yǔ)音識(shí)別(Automatic Speech Recognition,ASR),主要是將人類(lèi)語(yǔ)音中的詞匯內(nèi)容轉(zhuǎn)換為計(jì)算機(jī)可讀的輸入,一般都是可以理解的文本內(nèi)容,也有可能是二進(jìn)制編碼或者字符序列。
語(yǔ)音識(shí)別是一項(xiàng)融合多學(xué)科知識(shí)的前沿技術(shù),覆蓋了數(shù)學(xué)與統(tǒng)計(jì)學(xué)、聲學(xué)與語(yǔ)言學(xué)、計(jì)算機(jī)與人工智能等基礎(chǔ)學(xué)科和前沿學(xué)科,是人機(jī)自然交互技術(shù)中的關(guān)鍵環(huán)節(jié)。但是,語(yǔ)音識(shí)別自誕生以來(lái)的半個(gè)多世紀(jì),一直沒(méi)有在實(shí)際應(yīng)用過(guò)程得到普遍認(rèn)可。一方面,語(yǔ)音識(shí)別技術(shù)存在缺陷,其識(shí)別精度和速度都達(dá)不到實(shí)際應(yīng)用的要求;另一方面,業(yè)界對(duì)語(yǔ)音識(shí)別的期望過(guò)高,實(shí)際上語(yǔ)音識(shí)別與鍵盤(pán)、鼠標(biāo)或觸摸屏等應(yīng)該是融合關(guān)系,而非替代關(guān)系。
深度學(xué)習(xí)技術(shù)自 2015 年興起之后,已經(jīng)取得了長(zhǎng)足進(jìn)步。語(yǔ)音識(shí)別的精度和速度取決于實(shí)際應(yīng)用環(huán)境,但在安靜環(huán)境、標(biāo)準(zhǔn)口音、常見(jiàn)詞匯場(chǎng)景下的語(yǔ)音識(shí)別率已經(jīng)超過(guò)95%,意味著具備了與人類(lèi)相仿的語(yǔ)言識(shí)別能力,而這也是語(yǔ)音識(shí)別技術(shù)當(dāng)前發(fā)展比較火熱的原因。
隨著技術(shù)的發(fā)展,現(xiàn)在口音、方言、噪聲等場(chǎng)景下的語(yǔ)音識(shí)別也達(dá)到了可用狀態(tài),特別是遠(yuǎn)場(chǎng)語(yǔ)音識(shí)別已經(jīng)隨著智能音箱的興起,成為全球消費(fèi)電子領(lǐng)域應(yīng)用最成功的技術(shù)之一。由于語(yǔ)音交互提供了更自然、更便利、更高效的溝通形式,因此語(yǔ)音必定成為未來(lái)主要的人機(jī)互動(dòng)接口之一。
當(dāng)然,當(dāng)前技術(shù)還存在很多不足,如對(duì)于強(qiáng)噪聲、超遠(yuǎn)場(chǎng)、強(qiáng)干擾、多語(yǔ)種、大詞匯等場(chǎng)景下的語(yǔ)音識(shí)別還需要很大的提升;另外,多人語(yǔ)音識(shí)別和離線語(yǔ)音識(shí)別也是當(dāng)前需要重點(diǎn)解決的問(wèn)題。雖然語(yǔ)音識(shí)別還無(wú)法做到無(wú)限制領(lǐng)域、無(wú)限制人群的應(yīng)用,但是至少?gòu)膽?yīng)用實(shí)踐中我們看到了一些希望。當(dāng)然,實(shí)際上自然語(yǔ)言處理并不限于上文所說(shuō)的這些,隨著人們對(duì)深度學(xué)習(xí)的了解,更多應(yīng)用正在不停地開(kāi)發(fā)出來(lái),相信讀者會(huì)親眼見(jiàn)證這一切的發(fā)生。
1993~2009年,語(yǔ)音識(shí)別一直處于高斯混合-隱馬爾科夫(GMM-HMM)時(shí)代,語(yǔ)音識(shí)別率提升緩慢,尤其是 2000~2009 年,語(yǔ)音識(shí)別率基本處于停滯狀態(tài);
2009年,隨著深度學(xué)習(xí)技術(shù),特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(DNN)的興起,語(yǔ)音識(shí)別框架變?yōu)檠h(huán)神經(jīng)網(wǎng)絡(luò)-隱馬爾科夫(DNN-HMM),并且使得語(yǔ)音識(shí)別進(jìn)入了神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)時(shí)代,語(yǔ)音識(shí)別精準(zhǔn)率得到了顯著提升;
2015年以后,由于“端到端”技術(shù)興起,語(yǔ)音識(shí)別進(jìn)入了百花齊放時(shí)代,語(yǔ)音界都在訓(xùn)練更深、更復(fù)雜的網(wǎng)絡(luò),同時(shí)利用端到端技術(shù)進(jìn)一步大幅提升了語(yǔ)音識(shí)別的性能,直到 2017 年,微軟在 Switchboard 上達(dá)到詞錯(cuò)誤率 5.1%,從而讓語(yǔ)音識(shí)別的準(zhǔn)確性首次超越了人類(lèi),當(dāng)然這是在一定限定條件下的實(shí)驗(yàn)結(jié)果,還不具有普遍代表性。
1) 高斯混合-隱馬爾科夫時(shí)代
20 世紀(jì) 70 年代,語(yǔ)音識(shí)別主要集中在小詞匯量、孤立詞識(shí)別方面,使用的方法也主要是簡(jiǎn)單的模板匹配方法,即首先提取語(yǔ)音信號(hào)的特征構(gòu)建參數(shù)模板,然后將測(cè)試語(yǔ)音與參考模板參數(shù)一一進(jìn)行比較和匹配,取距離最近的樣本所對(duì)應(yīng)的詞標(biāo)注為該語(yǔ)音信號(hào)的發(fā)音。
該方法對(duì)解決孤立詞識(shí)別是有效的,但對(duì)于大詞匯量、非特定人的連續(xù)語(yǔ)音識(shí)別就無(wú)能為力。因此,進(jìn)入 80 年代后,研究思路發(fā)生了重大變化,從傳統(tǒng)的基于模板匹配的技術(shù)思路開(kāi)始轉(zhuǎn)向基于統(tǒng)計(jì)模型(HMM)的技術(shù)思路。
HMM 的理論基礎(chǔ)在 1970 年前后就已經(jīng)由 Baum 等人建立起來(lái),隨后由 CMU 的 Baker 和 IBM 的 Jelinek 等人將其應(yīng)用到語(yǔ)音識(shí)別中。語(yǔ)音識(shí)別技術(shù)主要包括語(yǔ)音信號(hào)處理、聲學(xué)模型、語(yǔ)言模型和解碼器四大部分。其中,語(yǔ)音信號(hào)處理用于對(duì)原始語(yǔ)音數(shù)據(jù)進(jìn)行預(yù)處理;聲學(xué)模型利用高斯混合模型、深度神經(jīng)網(wǎng)絡(luò)等方法建立音素到聲學(xué)特征的映射關(guān)系;語(yǔ)言模型則用于根據(jù)語(yǔ)法規(guī)則預(yù)測(cè)出可能的單詞序列;解碼器則根據(jù)聲學(xué)模型和語(yǔ)言模型的結(jié)果,對(duì)單詞序列進(jìn)行后處理得到最終文本。