微軟在智能語音領(lǐng)域?qū)崿F(xiàn)了重大技術(shù)突破
(文章來源:CSDN)
微軟在30多年前開辦微軟研究院時,已開始投入大量的人力物力在語音和語言上。近幾年來,微軟在語音識別上首先取得突破,在2016年,語音識別的準(zhǔn)確度已達(dá)到跟人相似的水平。2018年,在中英機(jī)器翻譯上和人類做比較,發(fā)現(xiàn)機(jī)器翻譯的質(zhì)量跟專業(yè)翻譯人員的結(jié)果完全可以相媲美。
2018年9月,微軟首先發(fā)布了基于神經(jīng)網(wǎng)絡(luò)的語音合成產(chǎn)品服務(wù),它與人聲的自然度得分的比例達(dá)到98.6%,也就是說非常接近人聲。
語音識別之路微軟在語音識別的具體突破有哪些?語音識別主要核心指標(biāo)是詞錯誤率,就是詞識別錯誤占多少比例。在SwitchBoard會話數(shù)據(jù)集上,語音識別錯誤率開始非常高,根本不能用,到2016年,微軟取得了突破,達(dá)到5.9%的錯誤率,2017年進(jìn)一步降低到5.1%的錯誤率,這個錯誤率跟專業(yè)人員轉(zhuǎn)寫錄音的錯誤率是相當(dāng)?shù)摹?/p>
大家聽聽這個數(shù)據(jù)集的例子:電話上有兩個人在交流,語音具有不連續(xù)性、噪音、口音,所以識別難度對機(jī)器來講是非常大的,微軟使用10個神經(jīng)網(wǎng)絡(luò)技術(shù),比如:CNN、ResNet、VGG等,多模型輸出打分、多系統(tǒng)融合,得到了這個了不起的突破。
機(jī)器翻譯的里程碑從1980年的傳統(tǒng)機(jī)器翻譯,到1990年的統(tǒng)計機(jī)器翻譯,再到2010年,深度學(xué)習(xí)機(jī)器翻譯技術(shù)開始興起。2018年,微軟首度提出一個任務(wù),把機(jī)器跟人在中英新聞翻譯上做比較,讓專業(yè)翻譯人員和機(jī)器翻譯同樣的句子,翻譯后請懂雙語的老師和學(xué)生去對翻譯結(jié)果用0-100分進(jìn)行打分。
可以看到微軟的Human Parity機(jī)器翻譯系統(tǒng)已經(jīng)超過或者接近專業(yè)人員的翻譯水平。它的突破用到了新技術(shù)比如對偶學(xué)習(xí),用大量無標(biāo)注數(shù)據(jù)提高現(xiàn)有的翻譯系統(tǒng)。還有推敲網(wǎng)絡(luò),先有一個初始翻譯,再用另外一個網(wǎng)絡(luò)進(jìn)行再一次的修正,同時運(yùn)用多系統(tǒng)融合技術(shù),最終達(dá)到這個突破性的結(jié)果。
語音合成技術(shù)我們再看看語音合成技術(shù),文字轉(zhuǎn)語音這個技術(shù)也是非常悠久的語音AI技術(shù)。
最開始是基于人的發(fā)音原理的合成器,然后90 年代用拼接的方法,把一句話分成很小的單元,然后進(jìn)行拼接,一開始的拼接是小語料庫,自然度一般。在1999年左右,出現(xiàn)基于大語料庫的拼接,這時需要收集到成千上萬的句子,把它們切分開來,用一種選擇策略去選擇最合適的單元拼接在一起,自然度顯著提升,但是帶來新的問題,比如有些拼接不平滑。
2006年左右,基于HMM模型的合成技術(shù)興起,它的好處是非常平滑,但是也帶來負(fù)作用,就是聲音過于平滑,讓人聽出來覺得不夠具有表現(xiàn)力。深度學(xué)習(xí)的興起在合成領(lǐng)域也得到了應(yīng)用,最近兩三年推出的神經(jīng)網(wǎng)絡(luò)TTS,是語音合成技術(shù)的突破。谷歌提出來Tacotron, WaveNet這些模型,把語音自然度提升新的水平。
微軟在2018年,2019年提出了Transformer TTS、Fast Speech等高自然度神經(jīng)網(wǎng)絡(luò)TTS模型,并在2018年9月首度推出產(chǎn)品化接近人聲的端到端Neural TTS。