Google Brain推出語音識別新技術助力商業(yè)發(fā)展
受先前語音和視覺領域增強成功的啟發(fā),Google Brain最近提出了SpecAugment,一種數(shù)據(jù)增強方法,它操作輸入音頻的對數(shù)mel光譜圖,而不是原始音頻本身。SpecAugment方法不但非常簡單,計算成本也很低,因為它直接作用于對數(shù)mel光譜圖,而不需要額外的數(shù)據(jù)。這種簡單的方法非常有用,并使研究人員能夠訓練端到端的監(jiān)聽參與和拼寫ASR網(wǎng)絡。
通過使用簡單的手工策略增加訓練集,即使沒有語言模型的幫助,研究人員也能夠在端到端的LAS網(wǎng)絡上獲得librispeech 960h和Switchboard 300h超越混合系統(tǒng)的性能。它優(yōu)于復雜的混合系統(tǒng),通過使用更大的網(wǎng)絡和更長的訓練時間,SpecAugment能夠達到最先進的效果。
全球自動語音識別(ASR)市場預計在2016年至2024年間以超過15%的復合年增長率增長。隨著先進電子設備的飛速使用,人們對開發(fā)尖端功能和效率的需求越來越大,這樣的功能和效率提高了應用的ASR精度。SpecAugment顯著提高了ASR的性能,并可能成為人工智能工程師驅(qū)動下一代ASR應用程序所需的必要條件,這些應用程序包括機器人、交互式語音響應、自定義詞典、視頻游戲、語音驗證、家用電器等。
使用一維CNN的端到端環(huán)境聲音分類模型,加拿大的一組研究人員最近提出了一個端到端的一維CNN環(huán)境聲音分類模型。根據(jù)音頻信號的長度,該模型由3-5個卷積層組成。與許多傳統(tǒng)方法實現(xiàn)二維表示的傳統(tǒng)模型不同,這一模型是直接從音頻波形中學習分類器。
在對包含8732個音頻樣本的數(shù)據(jù)集進行評估時,新方法演示了幾種相關的分類器表示,其結果超越了現(xiàn)有的基于二維實例和二維CNN的最優(yōu)效果。此外,在環(huán)境聲音分類方面,該模型比大多數(shù)其他CNN體系結構的參數(shù)都要少,與傳統(tǒng)的二維體系結構相比,平均精度要高出11%到27%。
根據(jù)這篇論文的評價結果,該方法在提供高度魯棒的環(huán)境聲音分類應用上具有很好的應用前景。
對于初學者來說,它的效率很高,與傳統(tǒng)的2D CNN相比,它只需要很少的訓練數(shù)據(jù)(后者需要數(shù)百萬個訓練參數(shù))。它還實現(xiàn)了最先進的性能,可以通過實現(xiàn)滑動窗口處理任意長度的音頻信號。最后,它緊湊的體系結構大大降低了計算成本。