蘋果新發(fā)布論文來闡釋語音助手的設(shè)計想法
(文章來源:鎂客網(wǎng))
最近,蘋果發(fā)布了一系列論文來闡釋語音助手的重要工作機理,公開揭秘Siri,向業(yè)界貢獻了自己在設(shè)計上的不同想法。
在第一篇論文中,蘋果就語音助手中的多任務(wù)處理問題進行了闡釋,它指出在Siri中,喚醒處理通常需要兩個步驟:AI首先必須確定輸入音頻中的語音內(nèi)容是否與觸發(fā)短語的語音內(nèi)容匹配(語音觸發(fā)檢測),然后必須確定說話者的語音是否與一個或多個注冊用戶的語音相匹配(說話者驗證)。一般方法是將兩項任務(wù)分別來處理,蘋果則認為可以用一個神經(jīng)網(wǎng)絡(luò)模型同時解決兩項任務(wù),同時它表示,經(jīng)過驗證,該方法各方面性能可以達到預(yù)期。
在該論文中,研究人員給出了模型示例。他們在包含16000小時帶注釋樣本的數(shù)據(jù)集中訓(xùn)練了基于兩種思路下設(shè)計的模型,其中5000小時的音頻帶有語音標簽,其余均只有揚聲器標簽。相比于一般訓(xùn)練模型去獲取多個標簽的思路,蘋果通過將不同任務(wù)的訓(xùn)練數(shù)據(jù)進行級聯(lián)來訓(xùn)練多個相關(guān)任務(wù)的模型。結(jié)果發(fā)現(xiàn),在性能表現(xiàn)相同的情況下,蘋果新提出的模型反而更適合應(yīng)用,它能夠在兩個任務(wù)之間共享計算,大大節(jié)省了設(shè)備上的內(nèi)存空間,同時計算時間或等待時間以及所消耗的電量/電池數(shù)量都將降低。
在另一篇論文中,蘋果還介紹了多語言演講場景的演講者識別系統(tǒng)設(shè)計——知識圖譜輔助聽寫系統(tǒng)決策。以聲學(xué)子模型為例,它可以基于語音信號傳輸痕跡來進行預(yù)測,并且其上下文感知的預(yù)測組件考慮了各種交互上下文信號,其中上下文信號包含有關(guān)發(fā)出命令的條件信息、已安裝的命令語言環(huán)境、當前選擇的命令語言環(huán)境以及用戶在發(fā)出請求之前是否切換命令語言環(huán)境的信息。
結(jié)果顯示,這一設(shè)計的優(yōu)勢在于,它們可以在語音信號太短而無法通過聲學(xué)模型產(chǎn)生可靠預(yù)測的情況下提供幫助。
此外,蘋果還提出了一項補充研究,緩解錯誤觸發(fā)問題,即忽略不適合語音助手(Siri)的語音?;趫D結(jié)構(gòu)設(shè)計AI模型的思路,研究人員提出了一種圖神經(jīng)網(wǎng)絡(luò)(GNN),其中每個節(jié)點都與標簽相連。結(jié)果顯示,該模型減少了87%的錯誤觸發(fā)。
? ? ?