(文章來源:百家號)
? ? ? ?相信大家如今在用智能手機的時候,很多時候都會用語音助手來幫助自己。但其實你知道,如今大部分汽車的汽車語音交互主要是通過方向盤上喚醒語音識別的按鈕來開啟的,可問題是現(xiàn)在的語音識別的準確率并不高,還有很多問題需要結(jié)局。,而要搞清楚語音識別在哪里出現(xiàn)問題,首先需要了解整個語音交互的流程。從大的方面來說,語音交互可以分成語音識別、語義理解、語音合成三大主線。
在語音識別之前,首先需要做到語音喚醒,喚醒是人機交互的主要觸發(fā)方式,和跟一個人聊天首先要叫其名字是一個邏輯。機器被喚醒后,就需要知道說話人的方位,才可以定向地拾音,解決噪聲、混響、回聲帶來的影響,同時對說話人進行語音增強。這個聲源定位和語音增強主要是用麥克風陣列的相關(guān)技術(shù),要保證識別率滿足車載交互需求,還要有專門針對遠場環(huán)境下基于大量數(shù)據(jù)訓練的聲學模型,并解決人聲檢測和斷句問題,過濾無效語音,做出快速響應。
語音交互必須解鎖的第二項技能是語義理解。相對完美的語義理解,不是指導式的,而是不設(shè)定規(guī)則或者語法的自然對話的。在語音模型中,一般有專門的模塊去判斷語音命令里的意圖,在語句中尋找關(guān)鍵參數(shù)。意圖與參數(shù)就構(gòu)成了這條語音命令所要表達的信息。比如說“我要去天安門”和“天安門在哪兒”對于系統(tǒng)來說是一樣的語義,“天安門”是參數(shù),“在哪兒”和“要去”是意圖。當然,這些模型并不需要人去手動逐個建立,也是通過大量的數(shù)據(jù)模型去訓練機器。
完成語音識別和語義的理解后,機器再通過語音合成,把信息傳遞給用戶,構(gòu)成一個完整的語音交互回合。雖然語音交互存在已達半個多世紀,車機、后視鏡、HUD等硬件都在使用語音交互,但仍然體驗不佳,這其中有識別的原因,也有語義理解的原因,還有諸如不能糾錯、指令式交互體驗乏味、操作復雜等原因。很多交互方案還是觸屏+部分語音的方式,不同應用中內(nèi)置不同的語音方案,造成了操作的煩瑣;還有的缺乏語音喚醒,不能真正解放雙手。
總體而言,基于終端大規(guī)模數(shù)據(jù)的收集和深度學習技術(shù)的出現(xiàn)使語音技術(shù)逐漸走向成熟,更好的語音交互需要用到更大體量的數(shù)據(jù)集以及更好的語音模型。雖然要花費的時間很多,但值得期待的是,語音識別叫醒耳朵只是第一步,當機器慢慢能夠聽懂人類的話,下一步必定是能夠親口說出“Hello World”,開啟真正的語音交互時代。